ディープフェイク、無料アプリで記者も体験 あまりの手軽さに恐ろしさも

生成人工知能(AI)を使って偽の動画や画像を作成する「ディープフェイク」。
顔の入れ替えなどスマートフォンのアプリで誰でも気軽に作れる一方、顔写真を無断で性的動画に合成される「ディープフェイクポルノ」の被害も起きている。
記者も動画作りを体験し、あまりの手軽さに恐ろしさを感じた。
「ディープフェイク」は、「ディープラーニング」(深層学習)と偽物を意味する「フェイク」を組み合わせた造語とされる。
サイバーセキュリティー大手「トレンドマイクロ」(東京)によると、2020年ごろから国内でも芸能人の顔を置き換えた性的な動画が確認されている。
同社広報担当の成田直翔さんは「当時は一目で偽物と分かるものや専門のエンジニアが作ったものだったが、最近はオンラインツールを使って簡単に精巧な動画が作れるようになっている」と指摘する。
本当に誰でもディープフェイクを作れるものなのか。
ネット上の無料サービスを試してみた。
まず同僚記者がペットボトルのミネラルウオーターを飲んだり、メガネを掛けたりする15秒の動画を撮影。
この動画と自分の顔写真1枚をサイト上にアップロードすると、わずか1分半ほどでフェイク動画が完成した。
髪形や服装は同僚記者のまま、顔のみが自分に置き換わっている。
動きも滑らかでまったく違和感がない。
「こんなに簡単に作れるんだ」。
たった1枚の顔写真から表情を違和感なく表現できることに驚いた。
韓国では未成年の間でディープフェイクポルノの拡散が問題となっている。
現地メディアによると、被害者と加害者の多くは10代。
秘匿性が高い通信アプリ「テレグラム」を使って作成し、地域や学校ごとに偽画像を共有するチャットルームもあるという。
8月には尹錫悦(ユンソンニョル)大統領が対策を指示する事態となった。
米セキュリティー会社「セキュリティーヒーロー」がまとめた2023年のディープフェイクの調査結果によると、性的な偽動画の撮影対象者のうち53%が韓国人という。
2番目は米国人で20%、続く3番目は他ならぬ日本人で10%を占めた。
またオンライン上で確認されたディープフェイク動画は世界全体で9万5820件。
19年と比べて5・5倍に増えた。
このうち、性的な動画が98%を占めている。
誰もが気楽に自分や家族、友人、知人の顔写真をSNS(交流サイト)に投稿する時代。
成田さんは「SNSにあるたった1枚の写真から加工が可能。リスクを知った上で楽しむ必要がある」と警鐘を鳴らす。
参照元:Yahoo!ニュース