タグ CSAM
人気順 5 users 50 users 100 users 500 users 1000 users画像生成AI「Stable Diffusion」などに使われた50億枚超の画像セット「LAION-5B」に1008枚の児童ポルノ画像が入っていることが判明し削除へ
スタンフォード大学インターネット天文台(SIO)の調査により、画像生成AI「Stable Diffusion」などのトレーニングに利用されているオープンデータセットの「LAION-5B」に、児童性的虐待画像(CSAM)が含まれていることが明らかになりました。CSAMの疑いのある画像は3226枚で、そのうち1008枚が外部機関の検証によりCSAMであ... 続きを読む
EUで進む「児童の性的虐待コンテンツ検出システム」の義務化の裏には利権団体が群がっているとの指摘
EUの政策執行機関である欧州委員会は2022年5月に、チャットアプリやSNSなどのオンラインサービスプロバイダーに対して、「ユーザーのプライベートメッセージをスキャンして児童の性的虐待コンテンツ(CSAM)を検出する義務」を負わせる規制を提案しました。CSAM検出システムの義務化によって利益を得る非営利団体の存在や... 続きを読む
Mastodonに児童性的虐待コンテンツがあふれているとスタンフォード大学インターネット観測所が指摘
分散型SNS・Mastodonで、上位のインスタンスにおいて児童性的虐待コンテンツ(CSAM)が横行していることが、スタンフォード大学インターネット観測所の調べによって明らかになりました。 Addressing Child Exploitation on Federated Social Media | FSI https://cyber.fsi.stanford.edu/io/news/addressing-child-exploit... 続きを読む
医者の診察のため幼児の性器を撮影した親が児童性虐待の疑いでGoogleアカウントを無効化される
Googleは児童性虐待記録物(CSAM)撲滅のための取り組みを行っていて、自動化された審査と人間の目視による審査でGoogleのプラットフォーム上にCSAMがないかどうかを確認しています。この仕組みに、子どもの写真を撮影した親が引っかかってしまい、Googleアカウントを凍結される事態になっています。 A Dad Took Photos of... 続きを読む
「違法画像の検出システムは簡単にだませる」ことを示した実例はこんな感じ
近年はデバイスや通信のプライバシーが向上した結果、児童性的虐待コンテンツ(CSAM)などの違法な画像のやり取りが容易になったという問題が生まれています。この問題に対処するため、端末に保存される画像から違法画像を検出する仕組みが開発されていますが、新たな研究で、「アルゴリズムをだまして検出システムを回避... 続きを読む
アップル、iCloudメールに児童虐待画像が添付されていないかスキャンしていたと認める - Engadget 日本版
アップルは児童虐待(いわゆる児童ポルノ)対策のためにiCloudにアップロードされる画像をスキャンする方針を発表し、様々な方面から批判を集めています。 そんななか、アップルがCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)を検出するため、2019年からiCloudメールの添付ファイルをスキャンしていること... 続きを読む
Apple、児童性的虐待コンテンツ(CSAM)対策への懸念に応えるFAQ公開 - ITmedia NEWS
米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。 発表された対策は、「メッセージ」アプリで12歳以下のユーザーが児童性的虐待コンテンツ(Chil... 続きを読む
Appleの「児童保護」対策、批判集まる – すまほん!!
プライバシー軽視や検閲行為? Appleは児童保護対策として、児童性的虐待資料(CSAM)と照合検知し警察に通報する機能を発表しました。米国では2021年内に開始。米国外には各国法律に基づいて拡大予定。 しかしこうした機能はEdward Snowden氏や暗号研究者Matthew Green氏など多数の識者が批判。電子フロンティア財団は... 続きを読む
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ | TechCrunch Japan
Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。 Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どもの... 続きを読む
アップル、児童虐待対策をiPhoneやMacに導入。iCloudに保存される写真を自動スキャン、当局に通報も - Engadget 日本版
アップル、児童虐待対策をiPhoneやMacに導入。iCloudに保存される写真を自動スキャン、当局に通報も アップルは5日(米現地時間)、iCloudやiMessageなどに児童の性的虐待(Child Sexual Abuse Material/CSAM)対策を導入すると発表しました。その中でも注目を集めているのが、iPhoneやiPad、MacでiCloudにアップロード... 続きを読む
Google、児童ポルノ画像検出特化のAIツールキットをリリース。人力判別の精神的ストレスを大幅軽減 - Engadget 日本版
これまで、多数の組織がインターネットに潜む性的な児童虐待画像(CSAM, child sexual abuse material)の発見と撲滅に取り組んできましたが、こうした画像を大量に審査するのは技術的に難しく、精神的にも辛いものです。Googleは、こうした作業を肩代わりできるようAIを鍛えた「Content Safety API」を開発しました。 こ... 続きを読む