先月中旬、永守さんらはある公立中学校の生徒のフェイク画像や動画がサーバー上に大量に投稿されていることを発見。このサーバーには1500人以上が参加しており、参加者は誰でも画像を保存できる状況にあったという。
現行法では法的根拠が曖昧で、警察も判断が難しく、被害者が泣き寝入りせざるを得ないのが実情です」
『1枚いくらで生まれたままの姿に加工します』など、フェイクポルノによる性的コンテンツがビジネスとなっている一方で、あまりに簡単に誰でも作れてしまうので、もはや売買自体が下火となっているプラットフォームもあるほど。ネットに拡散せず個人で生成して楽しむ範囲では、現行法では全く対処ができません。
嫌がらせで本人に送りつける場合は、ストーカー規制法が適用される可能性もありますが、常習性の有無や同姓によるいじめの場合など、現行法の解釈だけでは無理があるケースも多いです」
投稿には生徒の名前がフルネームで公開されており、被害児童は20人以上にものぼる。
「本名や学校、住所などの個人情報とともに生成したそういう画像を公開し、『襲ってください』など性犯罪をあおる内容の投稿です。
「本名や学校、住所などの個人情報とともに生成したそういう画像を公開し、『襲ってください』など性犯罪をあおる内容の投稿です。
関係者しかアクセスできない学校行事の写真を素材にしており、同級生による行為の可能性が極めて高いと感じました。
芸能人のフェイク被害は警察も検挙に積極的ですが、一般人で立件されたケースは私の知る限り前例がありません。
また、投稿に『コラージュ画像です』などの記載があると、名誉棄損の成立要件となる事実の摘示に当たらなかったり、身体部分が生成された画像だと児童◯◯には当たらないと判断されたケースもあります。
芸能人のフェイク被害は警察も検挙に積極的ですが、一般人で立件されたケースは私の知る限り前例がありません。
また、投稿に『コラージュ画像です』などの記載があると、名誉棄損の成立要件となる事実の摘示に当たらなかったり、身体部分が生成された画像だと児童◯◯には当たらないと判断されたケースもあります。
現行法では法的根拠が曖昧で、警察も判断が難しく、被害者が泣き寝入りせざるを得ないのが実情です」
「アイコラは加工に専用のソフトや技術が必要で、大量生産が難しかった。今はスマホ1つ、写真1枚から誰でも簡単にヌード画像や動画、音声までも生成でき、『剥ぎコラ』といって背景をそのままに被写体だけをヌードにすることも可能です。
『1枚いくらで生まれたままの姿に加工します』など、フェイクポルノによる性的コンテンツがビジネスとなっている一方で、あまりに簡単に誰でも作れてしまうので、もはや売買自体が下火となっているプラットフォームもあるほど。ネットに拡散せず個人で生成して楽しむ範囲では、現行法では全く対処ができません。
嫌がらせで本人に送りつける場合は、ストーカー規制法が適用される可能性もありますが、常習性の有無や同姓によるいじめの場合など、現行法の解釈だけでは無理があるケースも多いです」
2: 2025/03/06(木) 01:48:45.27
かわいそう
続きを読む