欧州委員会は21日、人工知能(AI)に関する規則案を公表した。これを導入することで、市民や企業の安全性や基本的権利を保証しながら、欧州連合(EU)全体でのAIの利用や投資などの強化を目指す。欧州議会と加盟各国の承認を経た上で、EU規則として施行する。
欧州委は新規制について、AIシステムのリスクに対応し、世界的最高基準を設定する柔軟なものと説明。リスクを「許容できないリスク」「高リスク」「限定的リスク」「最小限のリスク」の四つに分類し、それぞれに対応を定めている。
許容できないリスクは、人々の安全や生活、権利を脅かすAIシステムで、これは禁止される。人間の行動を操作するシステムやアプリケーション、政府による「社会的格付け」のシステムなどが対象となる。
高リスクは、重要インフラや教育・職業訓練、製品の安全部品、雇用・労働管理、公共サービス、法の執行などに使われるAI技術が該当する。これを市場に投入するには、定められた厳しい条件を順守することが義務付けられる。特に遠隔操作の生体認証システムは高リスクとして厳しい条件が課せられ、法執行を目的とした公共スペースでのリアルタイム使用については、一部の例外を除いて基本的に禁止される。
一方、限定的リスクは、チャットボットのようなAIシステムの利用時に、利用者が機械を相手にしていることが明確で情報に基づいて利用を決定できるものが対象となり、特定の透明性の義務が伴う。また最小限のリスクは、AIを利用したビデオゲームやスパムフィルターなどのアプリケーションで、自由な利用が認められる。大多数のAIシステムはこれに当てはまるという。
規則案では、各国に新規則を監督する専門の市場監視当局を設けることも提案している。また欧州人工知能庁を創設して規則の実施を促進するとともに、AIの標準化を進める。
なお欧州委は併せて、AIに関する協調計画を発表した。これはAIの開発で欧州の主導的地位を強化するため、各加盟国レベルで今後必要とされる政策の転換と投資について示している。[EU規制]
※本コメント機能はFacebook Ireland Limitedによって提供されており、この機能によって生じた損害に対して株式会社NNAは一切の責任を負いません。