英政府は28日、人工知能(AI)の規制に関する方針を公表した。AI専門の規制監督機関は新設せず、衛生安全庁(HSE)や平等人権委員会(EHRC)、競争・市場局(CMA)といった既存当局に権限を割り振る。
政府はこの日、「AI規制白書」を公表。AIを組み込んだチャットボット(自動応答システム)「チャットGPT」などが台頭する中、規制の策定により、国民のAIに対する信頼を醸成するとともに、技術革新を促す方針を打ち出した。
規制の策定に当たっては、◇AI利用の安全性◇AIの設計・利用を巡る透明性◇平等法やデータ保護法など公正を期する既存規則との適合◇AI利用の監督と説明責任◇損害を巡る提訴や補償の道筋――の5項目を柱に据えるとしている。
既存の各当局は今後、「AI実用化の現状に即した特定の利用状況ごとの規制」の策定に取り組む。1年以内に、企業向けの実務指針とリスク評価のひな型などのツールや資料を公表する。
同白書の内容については、6月21日まで意見公募を実施する。
政府によると、英国ではAIが既に医療診断や農地の効率的使用などさまざまな分野で実用化されており、その経済効果は37億ポンドに上る。一方で、国民のプライバシーや人権、安全へのリスクも懸念されている。また、現状では各種規制をつぎ合わせて対応しているため、企業に混乱が生じ、コンプライアンス(法令順守)費用もかさんでいるという。
なお、欧州連合(EU)は2021年4月に公表したAI規制案で、欧州人工知能庁や加盟各国の監督機関の創設を提案。AI利用のリスクを分類し、カテゴリー別に規制する方針を示しているが、AIの急速な進歩がこうした取り組みを複雑化しており、法制化には至っていない。
※本コメント機能はFacebook Ireland Limitedによって提供されており、この機能によって生じた損害に対して株式会社NNAは一切の責任を負いません。