2025/11/17
生成人口知能(AI)を悪用して作成されたわいせつな画像や動画が広がり、被害者を苦しめている。著名な女性芸能人らを模するケースが目立ち、「性的ディープフェイク」と呼ばれる悪質な行為だ。SNSや卒業アルバムの写真などから、勝手に裸体と合成するなどした動画がインターネット上に流出するケースもあり、人権侵害は甚だしい。実効性のある対策が急務となっている。
本物の写真や動画を使用したわいせつ画像・動画であれば、刑法の名誉毀損罪や、児童買春・ポルノ禁止法の適用が可能だが、本人に似せてAIに作らせるケースは、法的に「グレーゾーン」とされている。本人そのものへの名誉毀損といえるかが微妙であり、児童買春・ポルノ禁止法は「実在する児童」を対象としているため、加工した画像を「実在」と判断できるかどうかは法解釈の上でもハードルは高いためだ。
性的ディープフェイクを包括的に取り締まる法律は現在なく、警察当局は現行法での対応を迫られ、頭を悩ませているのが実情だ。
今年10月には、女性芸能人らを模したわいせつ画像を生成AIで作って販売したとして、男がわいせつ電磁的記録記録媒体陳列容疑で逮捕されたが、ネット上に被害画像が相次いで流出する中、立件に至ったケースは珍しい。
ただ、対策は可能なはずだ。鳥取県は、性的ディープフェイクを規制する条例を今年8月に施行し、児童ポルノの作成者に画像削除命令や従わない場合の氏名公表、過料徴収が定められた。こうした条例を参考にすれば、性的ディープフェイクを包括的に規制するための立法も現実的に難しくないのではないか。
生成AIは劇的に進化を遂げており、悪用された場合のリスクは極めて高い。自身が関連したとみられる画像や動画がネット上に流出した場合の被害者が受ける精神的ショックも極めて大きいはずだ。政府は早期に対策を講じるべく、国会で議論を活発化させる必要がある。
(桜田亮)
TIMES
政治•経済 社会•事件


