欧州AI法施行までのスケジュールの概要
カギとなる期日とその影響
欧州連合(EU)は2023年12月8日、欧州議会、欧州委員会、欧州理事会がEU AI法に関する政治合意に達し、AIの規制において重要な節目を迎えました。EU加盟国の全会一致による承認に続くこの重要な合意は、世界初の包括的なAI規制への道を開くものになります。AI法の段階的実施スケジュールは、イノベーションと社会的信頼を促進しながら、効果的なAIガバナンスを保証することを目的としています。
重要な期日とその内容
- 施行(2024年第2~第3四半期を予定):EU官報に掲載されてから20日後にAI法施行
- 適用開始: この適用期間は、施行から24カ月かけて段階的に開始。一部の特定条項は他のものより早く施行(以下参照)
- 施行から6ヵ月後(2024年第4四半期~2025年第1四半期):容認できないリスクに関するAIの禁止規定が施行
- 施行から12ヵ月後(2025年第2~第3四半期):汎用 AI (GPAI) モデルのプロバイダーに対する義務が始まり、加盟国の管轄当局の任命と、禁止されている AI に関する欧州委員会の年次審査が開始される
- 施行から18カ月後(2025年第4四半期~2026年第1四半期):欧州委員会は、市販後モニタリングに関する法律を施行
- 施行から24ヵ月後(2026年第2~第3四半期):Annex Ⅲに記載された高リスクのAIシステムに対する義務、罰則、加盟国によるAI規制サンドボックスの設置が想定される
- 施行から36カ月後(2026年第4四半期~2027年第1四半期):Annex Ⅲに規定されていない高リスクのAIシステムに対する義務が課される
- 2030年末まで:EU法で確立された大規模ITシステムなど、特定のAIシステムは、その義務が課される
AI法は、AIにおけるリスクのレベルを、容認できないリスク、高いリスク、限定的なリスク、最小限のリスクの4つに定義しています。異なるリスクレベルには、禁止に至るまでの異なる責任が伴います。規制の枠組みでは、「許容できないリスク」をもたらすAIシステム、例えば、生体認証データを使用してセンシティブな個人の特徴を推測するようなAIシステムを禁止しています。雇用、法執行、重要インフラなどで使用される高リスクのアプリケーションには、市場に投入される前に厳格な義務が課されます。例えば、開発者はそのモデルが安全で、透明性があり、ユーザーに説明可能であること、プライバシー法を遵守し、差別がないことを証明しなければなりません。チャットボットのようなリスクの低いAIツールでは、AIが生成したマシンとやりとりしていることをユーザーに通知する必要があります。
AI法はEU域内で活動するモデルに適用され、規則に違反する企業はリスクを負うことになります。AI法の実施段階が進むにつれ、関係者はAI開発、イノベーション、社会的信頼への影響を注意深く観察することになります。EUは、協調的かつ動的なな規制対話を通じて、技術的進歩を促進し、基本的権利を保護しながら、責任ある倫理的なAIの利用を確保する枠組みを確立することを目指しています。
欧州委員会が計画している、汎用AIモデルを規制するためのAIオフィスの設置は、独立した専門家の指導を受けながら、その施行を支援することになります。このオフィスは、これらのモデルの能力を評価し、関連するリスクを追跡する方法を開発します。
結論として、欧州連合のAI法は、AI技術に対する包括的な規制枠組みの確立に向けた先駆的な一歩となります。2023年12月8日に政治的合意に達し、段階的に実施するための体系化されたスケジュールにより、AI法はAIガバナンスの世界的な先例となる態勢を整えています。AIシステムのリスクレベルに応じて明確な義務を定め、AIオフィスの設立を通じて施行と監視の仕組みを定めることで、EUは責任あるAIの利用を主導する姿勢を示しています。この法制化のロードマップが展開されるにつれ、世界のAIシーン、技術進歩、地域社会の福祉に与える影響は、倫理的なAI管理における新時代の幕開けを告げる重要かつ広範なものとなると言えます。