米当局、AI生成による児童ポルノ画像の摘発に本腰

米国連邦検察当局は、人工知能(AI)ツールを使って児童の性的虐待画像を編集したり生成する容疑者の摘発を強化している。
当局は、AI技術が違法コンテンツの氾濫を加速しかねないと懸念を強めている。
米司法省は今年、生成AIを使って児童のわいせつな画像を生成したとして2件の刑事訴追を行った。
司法省でコンピューター犯罪及び知的財産部門を率いるジェームズ・シルバー氏は、「今後も増えていくだろう」と述べ、類似の立件が続くことを示唆した。
シルバー氏は、「心配なのは、これが常態化することだ。AIによって、この種の画像を作るのは簡単になっている。こうした画像が増えていけば、それが当たり前になってしまう。我々はこれを阻止し、正面から取り組みたいと思っている」と述べた。
生成AIの台頭に伴い、司法省は神経を尖らせている。
急速に進歩する生成AIテクノロジーがサイバー攻撃の実行に悪用され、暗号通貨詐欺の巧妙化を促し、選挙をめぐるセキュリティを脅かすのではないか、という懸念だ。
児童の性的虐待容疑による立件は、米検察当局がAI絡みの犯罪容疑に対して既存の連邦法の適用を試みる初めての事例だ。
児童に対する搾取をめぐる法的状況にAIがどのような変化をもたらすかが司法の場で問われることになり、たとえ有罪判決を勝ち取ったとしても控訴される可能性がある。
検察当局や児童安全擁護団体は、犯罪者が生成AIを利用することにより、児童の普通の写真を性的なものに加工できるようになると指摘。
AI生成コンテンツが拡散されることで、警察が虐待の真の被害者を特定・発見しにくくなると警告する。
ネット上の児童搾取に関する情報を収集している非営利団体(NPO)「全米失踪・虐待被害児童センター」のイオタ・ソーラス最高法務責任者によれば、同NPOには生成AIに関する報告が月平均450件寄せられている。
この件数は、同NPOが昨年受けたネット上での児童搾取に関する月平均報告件数300万件に比べればごくわずかだ。
とはいえ、AIが生成する性的虐待画像に関連する事件は、新たな法的領域で展開されていく可能性が高い。
特定可能な児童が描写されていない場合はなおさらだ。
シルバー氏は、そうした事例の場合、検察側としては、児童ポルノ禁止法が適用されない場合でも、わいせつ罪に問うことができると話す。
検察当局は5月、ウィスコンシン州在住のソフトウェアエンジニア、スティーブン・アンダーエッグ被告を、わいせつなコンテンツを送信したなどの容疑で起訴した。
訴訟記録によると、アンダーエッグ被告はテキストから画像を生成する人気の画像生成AI「ステーブル・ディフュージョン」を使い、性的に露骨な行為をおこなう幼児の画像を生成し、画像の一部を15歳の少年と共有したとされている。
訴訟記録によればアンダーエッグ被告は無罪を主張しており、起訴自体が合衆国憲法に基づく自らの権利を侵害しているとして起訴取り下げを求めている。
アンダーエッグ被告は公判までのあいだ保釈されている。同被告の弁護人には連絡がつかず、コメントは得られなかった。
ステーブル・ディフュージョンの提供元であるスタビリティAIは、この事件では同AIモデルの開発を引き継ぐ前にリリースされたバージョン使われているとした上で、「有害なコンテンツの製作のためのAIの悪用」を防ぐための投資を進めていると述べた。
連邦検察当局はまた、米陸軍兵士のセス・ヘレーラ被告を児童ポルノ禁止法違反で起訴した。
訴訟記録によれば、訴状には、AIチャットボットを用いて知り合いの児童の無害な写真を加工し、暴力的な性的虐待画像を生成したという容疑が含まれている。
ヘレーラ被告は無罪を主張したが、公判までのあいだ保釈は認められていない。
同被告の弁護人にコメントを求めたが、回答は得られなかった。
法律専門家によると、実在する児童の性的に露骨な表現は児童ポルノ禁止法に基づき規制される一方で、純粋にAIにより生成されたわいせつ画像をめぐる状況は不透明だという。
米連邦最高裁は2002年、コンピューターが生成した画像を含め、未成年者による性行為のように見えるすべての表現を刑法犯罪とする連邦法について、違憲判決を下した。
「検察側が勝つための武器として道徳的な嫌悪感だけに頼るとすれば、この種の裁判は難航するだろう」と語るのは、フロリダ大学のジェーン・バムボウアー教授(法学)。
同教授はAIによるプライバシーや法執行への影響を研究している。
連邦検察当局は近年、法的にわいせつ画像と認定された性的に露骨な児童の画像を所持していた被告に対して、有罪判決を勝ち取っている。
また児童権利擁護団体は、AIシステムが虐待の要素を含むコンテンツを生成するのを防ぐことにも力を注いでいる。
児童権利擁護を掲げるNPO「ソーン」及び「オール・テック・イズ・ヒューマン」は4月、アルファベット傘下のグーグル、アマゾン、フェイスブックとインスタグラムを抱えるメタ・プラットフォームズ、オープンAI、スタビリティAIといった大手企業数社に、自社のAIモデルに児童の性的虐待画像を学習させることを回避し、そうした画像の生成・拡散を防止するためのプラットフォーム監視の実施を確約させた。
ソーンのレベッカ・ポートノフ副理事長(データサイエンス担当)は、「これを将来的な問題と位置づけたくない。将来の問題ではなく、今まさに起きていることだ」と語る。
「将来的に完全に制御不能になる問題かどうかという点については、それを予防するために今のうちにできることがある、という希望を持っている」
参照元:REUTERS(ロイター)