要約
近年、学校でのディープフェイクによる性的虐待が深刻な問題となっています。特に、若い男子がInstagramやSnapchatから同級生の写真をダウンロードし、悪質なアプリを使って偽のヌード画像や動画を作成するケースが増加しています。これにより、被害者は屈辱や不安を感じ、永遠にその画像に悩まされることを恐れています。
この問題は数年前から始まりましたが、生成AI技術の普及に伴い急増しています。最近の調査によれば、少なくとも28カ国で高校生の男子が同級生をターゲットにした性的ディープフェイクを作成した疑いが持たれており、被害に遭ったのは600人以上にのぼります。こうした行為は児童性的虐待に該当し、学校や法執行機関はこの深刻な問題への対応が不十分です。
調査によると、北米では2023年以降、30件近くのディープフェイクによる性的虐待が報告されており、南米やヨーロッパ、オーストラリア、東アジアでも多くのケースが確認されています。実際の被害者数はこれ以上であると考えられており、特に被害者への支援が急務となっています。教育機関や社会全体でこの問題に取り組む必要があります。
元記事: https://www.wired.com/story/deepfake-nudify-schools-global-crisis/
公開日: Wed, 15 Apr 2026 10:00:00 +0000
この記事はAIアシスト編集により作成されています。
📰 元記事: 元記事を読む