【卒アル悪用】SNSで児童生徒252人の性的画像拡散 ディープフェイクも 「氷山の一角」

卒業アルバムなどに載っている児童生徒の写真を悪用し、性的に加工した画像や動画の252人分が2~6月、交流サイト(SNS)上に投稿されていたことが5日、民間団体の調査で分かった。生成人工知能(AI)技術を使った「性的ディープフェイク」も含まれるとみられ、団体は「氷山の一角」としている。

Photo: 卒業アルバムからAIで性的画像を生成するイメージ(KYODONEWS)

にほんブログ村 2ちゃんねるブログ 2ちゃんねる(政治・社会)へ2chまとめランキング


画像と一緒に子どもの名前が投稿されているケースも 実在の人物だと確認した事例が複数




 調査は、インターネット上で盗撮画像などをパトロールしている団体「ひいらぎネット」が実施。把握できた252人分のうち、内容などから中高生と推測されたのは200人、小学生が20人だった。残りは中高生か小学生かという判別ができなかった。その後、一部は削除された。

 画像と一緒に子どもの名前が投稿されているケースもあり、同団体は在籍している可能性がある学校を調べ教育委員会や学校側に通報。学校や保護者からの連絡で、実在の人物だと確認した事例が複数あったという。 (抜粋)













にほんブログ村 2ちゃんねるブログ 2ちゃんねる(政治・社会)へ
このエントリーをはてなブックマークに追加