タグ LGBTQ
人気順 10 users 50 users 100 users 500 users 1000 users画像生成AI「Stable Diffusion」などに使われた50億枚超の画像セット「LAION-5B」に1008枚の児童ポルノ画像が入っていることが判明し削除へ
スタンフォード大学インターネット天文台(SIO)の調査により、画像生成AI「Stable Diffusion」などのトレーニングに利用されているオープンデータセットの「LAION-5B」に、児童性的虐待画像(CSAM)が含まれていることが明らかになりました。CSAMの疑いのある画像は3226枚で、そのうち1008枚が外部機関の検証によりCSAMであ... 続きを読む
EUで進む「児童の性的虐待コンテンツ検出システム」の義務化の裏には利権団体が群がっているとの指摘
EUの政策執行機関である欧州委員会は2022年5月に、チャットアプリやSNSなどのオンラインサービスプロバイダーに対して、「ユーザーのプライベートメッセージをスキャンして児童の性的虐待コンテンツ(CSAM)を検出する義務」を負わせる規制を提案しました。CSAM検出システムの義務化によって利益を得る非営利団体の存在や... 続きを読む
Appleが児童ポルノ検出ツールの開発を諦めた理由とは?
Appleは2021年8月にiPhone内の写真やメッセージをスキャンして児童虐待性的コンテンツ(CSAM)を削除する機能の実装予定を発表していましたが、iPhone内の情報スキャンはユーザーのプライバシーを損なうとして非難され、2022年12月には当該機能の実装が断念されたことが報じられました。新たに、Appleが児童保護団体の質問... 続きを読む
Mastodonに児童性的虐待コンテンツがあふれているとスタンフォード大学インターネット観測所が指摘
分散型SNS・Mastodonで、上位のインスタンスにおいて児童性的虐待コンテンツ(CSAM)が横行していることが、スタンフォード大学インターネット観測所の調べによって明らかになりました。 Addressing Child Exploitation on Federated Social Media | FSI https://cyber.fsi.stanford.edu/io/news/addressing-child-exploit... 続きを読む
Appleが「iCloudフォトに性的児童虐待の画像がないかをチェックするシステム」の実装を破棄
Appleは、ユーザーがiCloudに保存している写真をスキャンして性的児童虐待のコンテンツ(CSAM)が含まれていないかを検出する計画を発表していましたが、これに対して反対の声が多く挙がりました。AppleがこのCSAM検出システムを導入する計画を破棄したと報じられています。 Apple Kills Its Plan to Scan Your Photos for... 続きを読む
医者の診察のため幼児の性器を撮影した親が児童性虐待の疑いでGoogleアカウントを無効化される
Googleは児童性虐待記録物(CSAM)撲滅のための取り組みを行っていて、自動化された審査と人間の目視による審査でGoogleのプラットフォーム上にCSAMがないかどうかを確認しています。この仕組みに、子どもの写真を撮影した親が引っかかってしまい、Googleアカウントを凍結される事態になっています。 A Dad Took Photos of... 続きを読む
「違法画像の検出システムは簡単にだませる」ことを示した実例はこんな感じ
近年はデバイスや通信のプライバシーが向上した結果、児童性的虐待コンテンツ(CSAM)などの違法な画像のやり取りが容易になったという問題が生まれています。この問題に対処するため、端末に保存される画像から違法画像を検出する仕組みが開発されていますが、新たな研究で、「アルゴリズムをだまして検出システムを回避... 続きを読む
アップル、iCloudメールに児童虐待画像が添付されていないかスキャンしていたと認める - Engadget 日本版
アップルは児童虐待(いわゆる児童ポルノ)対策のためにiCloudにアップロードされる画像をスキャンする方針を発表し、様々な方面から批判を集めています。 そんななか、アップルがCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)を検出するため、2019年からiCloudメールの添付ファイルをスキャンしていること... 続きを読む
iOS15で導入の児童ポルノ検出、同技術の研究者が「危険」と批判 - iPhone Mania
AppleがiOS15などで導入すると発表した、ユーザーのiPhoneに保存された児童への性的虐待画像(CSAM:Child Sexual Abuse Material)の検出機能について、同様の技術を研究する研究者「危険」と述べ、導入を見送るべきだと指摘しています。 米大学のコンピュータ科学の研究者が問題を指摘 AppleがiOS15などで導入すると発... 続きを読む
Appleが非難殺到の「iPhone内の児童ポルノ検出システム」について詳細説明資料を新たに公表 - GIGAZINE
Appleが新たに発表した「CSAM(児童性的虐待資料)拡散防止のための試み」に対して非難が殺到したことを受け、新たに詳細説明資料を発表しました。報道によると、Appleは今回の取り組みについて「誤解を受けている」と判断しているとのことです。 Apple to only seek abuse images flagged in multiple nations - Security... 続きを読む
Apple、児童性的虐待コンテンツ(CSAM)対策への懸念に応えるFAQ公開 - ITmedia NEWS
米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。 発表された対策は、「メッセージ」アプリで12歳以下のユーザーが児童性的虐待コンテンツ(Chil... 続きを読む
Appleの「児童保護」対策、批判集まる – すまほん!!
プライバシー軽視や検閲行為? Appleは児童保護対策として、児童性的虐待資料(CSAM)と照合検知し警察に通報する機能を発表しました。米国では2021年内に開始。米国外には各国法律に基づいて拡大予定。 しかしこうした機能はEdward Snowden氏や暗号研究者Matthew Green氏など多数の識者が批判。電子フロンティア財団は... 続きを読む
Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化 | スラド アップル
Apple が米国内の Apple デバイスを対象として、子供を性的虐待から守る取り組みの強化を発表した(Apple - Child Safety、 9to5Mac の記事、 Mac Rumors の記事、 The Verge の記事)。 取り組みの中心となるのは自動性的虐待素材 (CSAM) の拡散防止だ。まず、「メッセージ」アプリでは子供が性的に露骨な写真を送受信し... 続きを読む
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ | TechCrunch Japan
Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。 Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どもの... 続きを読む
米アップル、児童性的虐待画像を検出へ アメリカ国内のiPhoneなどスキャン - BBCニュース
米アップルは5日、アメリカ国内のiPhoneユーザーが画像をクラウドサービス「iCloud」に保存する際に、児童性的虐待コンテンツ(CSAM)かどうかを特定するシステムを導入すると発表した。 続きを読む
AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も - GIGAZINE
現地時間の2021年8月5日、Appleは「子どものための拡張された保護」と題するページを公開し、「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」の拡散を制限するために、新たな安全機能を導入すると発表しました。Appleは具体的に「メッセージアプリ上でやり取りされるCSAMと思しきコンテンツにつ... 続きを読む
アップル、児童虐待対策をiPhoneやMacに導入。iCloudに保存される写真を自動スキャン、当局に通報も - Engadget 日本版
アップル、児童虐待対策をiPhoneやMacに導入。iCloudに保存される写真を自動スキャン、当局に通報も アップルは5日(米現地時間)、iCloudやiMessageなどに児童の性的虐待(Child Sexual Abuse Material/CSAM)対策を導入すると発表しました。その中でも注目を集めているのが、iPhoneやiPad、MacでiCloudにアップロード... 続きを読む
Google、児童ポルノ画像検出特化のAIツールキットをリリース。人力判別の精神的ストレスを大幅軽減 - Engadget 日本版
これまで、多数の組織がインターネットに潜む性的な児童虐待画像(CSAM, child sexual abuse material)の発見と撲滅に取り組んできましたが、こうした画像を大量に審査するのは技術的に難しく、精神的にも辛いものです。Googleは、こうした作業を肩代わりできるようAIを鍛えた「Content Safety API」を開発しました。 こ... 続きを読む