広がるAI使った性的偽画像被害、狙われる卒アルの個人写真 載せない学校増える可能性も
卒業アルバム(卒アル)の写真などを生成人工知能(AI)で性的な画像や動画に加工する「ディープフェイクポルノ」の被害が国内外で広がっている。
特に卒アルに掲載された生徒の〝個人写真〟が加工素材として狙われ、SNSなどで拡散されるケースが目立つ。
少子高齢化で卒アルへの個人写真掲載が定番化している中、こうした事態を受けて、載せない学校が増える可能性も出てきた。
「卒アルは(生徒の在学を証明するツールでもあり)、卒業生の個人写真を載せてこそ意味がある」東京都葛飾区で50年以上、卒アル制作を担ってきたキョーコロの柏木和也取締役はこう強調する。
現状、同社と取り引のある学校では卒アルに個人写真の掲載を取りやめる動きは顕在化していないと話す。
ただ、個人情報流出の不安に加え、不登校の生徒が増えていることもあり、地域や学校によっては卒アルに個人写真の掲載を取りやめる動きもにわかに散見されるという。
同社にも、卒アルからの個人情報の流出対策を求める声は増えている。
抜本的な対策は見いだせておらず、柏木氏は「卒アルは個人情報を含むものという意識を持ってもらうため、取り扱いの注意を喚起する紙を同封するなどの提案くらいしかできていない」と頭を抱える。
写真販売システムを運営するITベンチャー「エグゼック」(東京)の山中淑史取締役は、「デジタル画像ならば、不正コピーを防ぐ『電子透かし』の利用やパスワード管理などで一定程度流出を防ぐ方法はあるが、製本された紙の卒アルからスキャンされた画像の流出は防ぎようがない」と説明。
「紙幣に使われているようなコピー防止機能を卒アルに施す手法も考えられるが、コスト面を考えると現実的ではない」と指摘する。
同社は生徒の顔をAIで選別する技術を活用し、卒アルに登場する生徒の回数調整を効率化するサービスを提供している。
山中氏は「AIの活用はさまざまな面で大きな恩恵を与える一方で、同じくらい悪用されるリスクもある。使い方はモラルに依存する部分が大きすぎる」と警鐘を鳴らす。
AI技術の加速度的な進歩により、ディープフェイクポルノは容易かつ精巧に作ることが可能になり、最近では偽物がどうか見極めるのが困難になっている。
その技術革新によって、ディープフェイクポルノの被害も拡大の一途をたどる。
米セキュリティー会社「セキュリティー・ヒーロー」によると、2023年にネット上で確認されたディープフェイクポルノ動画は9万5820件で、19年と比べて5.5倍に増えた。
国籍別の被害で日本は全体の10%を占め、韓国(53%)、米国(20%)に次いで3番目に多い。
被害が集中する韓国では今年5月、ソウル大の卒業生の男らが、同窓生を含む60人以上の女性の顔写真を利用した画像を流布したとして起訴され、被害の実態が表面化した。
使われた素材の多くは、卒業アルバムやプロフィル写真など、入手が容易な写真だった。韓国や米国ではディープフェイクを直接規制する
法律の整備が進むが、日本では明確に規制する法律はないのが現状だ。
参照元:Yahoo!ニュース