EUのAI法に関する最新情報:EU政策立案者が高リスクのAIシステムに対する規制強化を提案
EUの政策立案者は、人工知能をリスクベースのアプローチで規制することを目的としたAI法の改正を計画している。この法律制定は、リスクの高いAIシステムに関して、安全性と基本的権利の保護を確保することを念頭に置いている。
当初の提案では、特定のAIソリューションは自動的に高リスクに分類されていたが、最近の議論では、AI開発者がこの分類を回避できるようにするための免除条件が導入された。しかし、欧州議会の法務局は、このアプローチが法的不確実性をもたらし、AI法の目的に合致しない可能性があると懸念を表明した。
そんな中、EU議会の共同報告者が発表した最新版では、適用除外条件が維持されている。その基準については、より良いガイダンスを提供するために明確化された。
適用除外の基準には以下が含まれる。
📌 AIシステムが、非構造化データの変換や文書の分類のような、狭い手続きタスクのために設計されている場合。
📌 AIソリューションが人間の活動の成果を向上させたり、見直したりすることで、人間の作業に付加的なレイヤーを加えるか。(例:文書の言語を改善)
📌 AIシステムが、教師の採点のような、意思決定のパターンや不一致を検出することを目的としているか。
📌 AIモデルが準備作業に使用され、ファイル処理ソフトのように、システムのリスク影響を軽減するか。
そして、人々のプロファイリングに関与するAIシステムは、依然として高リスクとみなされる。
市場監視当局は、AIシステムを評価し、コンプライアンスを確保する上で重要な役割を果たしており、AIプロバイダーがAI法に違反した場合、当局は罰金を科すことができる。
👉🏻欧州委員会は、技術開発や重要なユースケースのリストの変更に基づいて基準を更新することができるが、それは高リスクのAIシステムであっても重大なリスクがないという具体的な証拠があり、その変更が全体的な保護レベルを低下させない場合に限られる。