政府、AIの法規制議論を開始 大規模開発事業者に情報開示制度検討 半田貞治郎

政府、AIの法規制議論を開始 大規模開発事業者に情報開示制度検討

こんにちは!半田貞治郎です。

## AIの便益最大化とリスク低減を目指す

政府は22日、AI(人工知能)を巡る有識者会議「AI戦略会議」を開き、AIの法規制の議論を本格化させた。AI規制に関する基本方針を提示し、大規模なAI開発事業者を対象に、情報開示などを求める制度を検討する必要性を明記した。今後数年かけて、法制化の是非を議論する。[1]

基本方針では、AIについて「便益を最大化するとともに、リスクは可能な限り低減させる」との考えを示した。具体的に対応を検討すべきリスクとして、人権侵害、安全保障・犯罪増加、知的財産権の侵害などを挙げている。[1]

## 大規模AI開発事業者への法規制を検討

政府は4月、AI事業者に「安全性」などへの配慮を求めるガイドラインを策定したが、法的拘束力はない。[3] そこで基本方針では、「リスクの高いAIや、人権侵害・犯罪につながり得るAIに対して必要な法的規制のあり方を検討する必要がある」と指摘した。[1]

特に大規模なAI開発事業者については、「国民への影響が大きくリスクが高い」として、「国民の安全・安心の観点から、ガイドラインを補完する法制度の検討が考えられる」と記した。[1]

## 偽情報対策にも着手

AIを利用した偽情報対策でも、「コンテンツに出所や来歴情報を付与する技術を普及させる」ことの有用性を盛り込んだ。発信者情報を明示するデジタル技術「オリジネーター・プロファイル(OP)」の活用が念頭にあるとみられる。[1]

Citations:
[1] https://www.yomiuri.co.jp/politics/20240522-OYT1T50173/
[2] https://www.jiji.com/jc/article?g=eco&k=2024052201015
[3] https://www.asahi.com/articles/ASS5Q21TCS5QULFA015M.html
[4] https://news.yahoo.co.jp/pickup/6501946
[5] https://sp.m.jiji.com/article/show/3242873