欧州のAI規制法、具体的な実施規則が焦点 企業は骨抜き狙う

人工知能をイメージした写真

世界有数のテクノロジー企業は数十億ドルの罰金を科せられるリスクを回避すべく、欧州連合(EU)に対し人工知能(AI)の規制に緩やかな対応をするよう説得するため、最後の賭けに打って出ようとしている。

欧州議会は5月、さまざまな政党・会派の間で数カ月にわたり激論を重ねた末に、関連規則を世界で初めて包括的にまとめたAI規制法案を承認した。

だが、この法律に伴う実施規則が最終決定されるまでは、米新興企業オープンAIの「チャットGPT」などのGPAI(汎用人工知能)システムを巡るルールがどの程度厳格に執行されるのか、著作権訴訟や、関連企業に科せられる数十億ドル規模の罰金がどの程度発生するのかは不明のままだ。

EUは企業や研究者らに、実施規則の策定への協力を要請している。

この件に詳しい関係者によると、異例の多さとも言える1000件近い参加申請が集まっているという。

実施規則が有効となるのは2025年末で、それまでは法的な拘束力はないものの、企業にとっては自社の法令順守を確認するためのチェックリストになる。

実施規則を無視していながら法令順守を掲げる企業は、訴訟リスクに直面しかねない。

米アマゾン・ドット・コムやアルファベット傘下のグーグル、メタも加盟する業界団体、コンピューター通信産業協会(CCIA)で上級政策責任者を務めるボニファス・ド・シャンプリ氏は「肝心なのは実施規則だ。これがまともなら、イノベーションの持続は可能だ」と語る。

「狭量で細部にこだわる規則ができてしまえば、イノベーションはとても困難になる」とド・シャンプリ氏は続けた。

スタビリティAIやオープンAIなどの企業は、作者の許可を得ずにベストセラー書籍や写真アーカイブを自社AIモデルの学習に利用することが著作権に抵触するか否かという問題に直面している。

欧州のAI規制法は、自社AIモデルの学習に用いるデータについて「詳細な概要」を開示するよう企業に義務付けている。

理論上、自分の作品がAIモデルの学習に用いられていたことを知ったコンテンツ制作者は、その対価を請求できる可能性があるが、これについては現在も裁判で争われているところだ。

経営者の中には、企業秘密の保護という観点から、開示が求められる「概要」には詳細な情報を入れる必要はほとんどないという見解もあれば、著作権保有者には自らの作品が無許可で利用されたか否かを知る権利があるという見解もある。

オープンAIは自社モデルの学習に用いたデータに関する疑問への回答を拒否したことで批判を浴びた。

実施規則の策定に詳しい匿名希望の関係者によれば、同社も策定に向けた作業部会への参加を申請しているという。

グーグルの広報担当者はロイターに対し、同社も参加を申請したと明らかにした。

一方、アマゾンは「実施規則が良いものになるよう、当社の専門能力によって貢献する」ことを希望していると述べている。

ウェブブラウザー「ファイアフォックス」を開発した米非営利団体のモジラ財団でAI政策主任を務めるマクシミリアン・ガーンツ氏は、企業各社が「透明性を回避するために全力を尽くして」いるのではないかと懸念を示す。

「EUのAI規制法は、この重要な側面に注目を集め、少なくともブラックボックスの一部を明らかにする最善の機会となっている」とガーンツ氏は言う。

企業関係者の中には、EUがイノベーションよりも技術規制を優先したことを批判し、実施規則の策定に当たっては合意の取りまとめが難航するだろうとの見方もある。

欧州中央銀行(ECB)のドラギ元総裁はEUに対して前週、中国や米国に追いつくためには、より協調的な産業政策と迅速な意思決定、大規模な投資が必要だと提言した。

EUによるテクノロジー規制を声高に主張し、法令違反のテクノロジー企業を批判しているティエリー・ブルトン氏は、フォンデアライエン欧州委員長と対立し、9月16日に欧州委員(域内市場担当)の辞任を表明した。

EU内で保護主義が高まっていることを背景に、域内のテクノロジー企業は、新興の欧州企業に利益をもたらす適用外規定(カーブアウト)がAI規制法に導入されることを期待している。

「私たちはこれまで、AI規制法による義務は対応可能なレベルで、もし可能であれば新興企業に配慮したものであるべきだと主張してきた」。

こう語るのは、中小テクノロジー企業を代表する業界団体のネットワーク「アライド・フォー・スタートアップス」で政策担当マネジャーを務めるマクシム・リカルド氏だ。

来年早々に実施規則が発表されても、それを基準としてテクノロジー企業の法令順守の取り組みが評価されるようになるのは2025年8月からだ。

実施規則策定の作業部会にはアクセス・ナウ、フューチャー・オブ・ライブ・インスティチュート、モジラ財団などの非営利団体も参加を申請している。

モジラのガーンツ氏は「AI規制法による義務の多くが一段と詳細に規定される段階に入っていく中で、透明性関連の重要な責務を大手AI企業が骨抜きにしないよう、警戒を強めていく必要がある」と話した。

参照元:REUTERS(ロイター)