英国と米国は1日、人工知能(AI)の安全性評価に向けた覚書に調印した。最新のAIモデルの安全性試験を共同で開発するほか、知識の共有や人材交流も検討する。安全性試験はAIモデルが国家の安全保障や社会にもたらすリスクを見極めるためのもので、昨年11月に英国で開かれた「AI安全性サミット」で実施が決まっていた。
安全性試験の開発は、両国でそれぞれ新設されたAI安全性研究所(AISI)が行う。一般に公開されるAIモデルについては、少なくとも1回は共同で安全性試験を実施する。また、専門知識の共有に向けて、両研究所の人材交流を検討する。
英国のドネラン科学・イノベーション・技術相は、「AI開発における安全性の確保は世界共通の課題」と指摘。「協力して取り組むことで初めてAIのリスクに対処し、その多大な潜在的可能性を活用できる」と述べている。
昨年のAI安全性サミットでは、英国、米国、ドイツ、欧州連合(EU)、日本などの各国政府と、対話型AIチャットボット「チャットGPT」を手がける米新興企業オープンAIや米グーグルなどの主要AI開発企業が、新たなAIモデルの安全性審査で協力することで合意した。
※本コメント機能はFacebook Ireland Limitedによって提供されており、この機能によって生じた損害に対して株式会社NNAは一切の責任を負いません。