Erkundung von Änderungen des EU-KI-Gesetzes, die sich mit risikoreichen KI-Systemen und Ausnahmekriterien befassen. | Prighter
Blog
Hinweis: Beiträge werden automatisch aus dem Englischen übersetzt. Für den Originalinhalt besuchen Sie bitte unsere englische Seite. Einige Übersetzungen sind möglicherweise nicht perfekt; wir danken Ihnen für Ihr Verständnis.
Picture

Update zum KI-Gesetz der EU: EU-Politiker haben strengere Vorschriften für hochriskante KI-Systeme vorgeschlagen

Die EU-Politiker planen Änderungen des KI-Gesetzes, die darauf abzielen, Künstliche Intelligenz in einem risikobasierten Ansatz zu regulieren. Der Kern dieser Gesetzgebung ist es, die Sicherheit und den Schutz der Grundrechte zu gewährleisten, wenn es um risikoreiche KI-Systeme geht.

Der ursprüngliche Vorschlag sah vor, dass bestimmte KI-Lösungen automatisch als risikoreich eingestuft werden, doch in den jüngsten Diskussionen wurden Ausnahmeregelungen eingeführt, die es KI-Entwicklern ermöglichen, diese Einstufung zu vermeiden. Das Rechtsamt des Europäischen Parlaments äußerte jedoch Bedenken, dass dieser Ansatz zu Rechtsunsicherheit führen und nicht mit den Zielen des KI-Gesetzes übereinstimmen könnte.

Die jüngste Version des Textes, die von den Ko-Berichterstattern des EU-Parlaments veröffentlicht wurde, behält jedoch die horizontalen Ausnahmebedingungen bei. Die Kriterien wurden verfeinert und präzisiert, um eine bessere Orientierung zu bieten.

Diese Kriterien umfassen:

📌Wenn das KI-System für eine enge verfahrenstechnische Aufgabe konzipiert ist, wie die Umwandlung von unstrukturierten Daten oder die Klassifizierung von Dokumenten.

📌Wenn die KI-Lösung die Ergebnisse einer menschlichen Tätigkeit verbessert oder überprüft, indem sie der menschlichen Arbeit eine zusätzliche Ebene hinzufügt, z. B. durch die Verbesserung der Sprache in einem Dokument.

📌AI-Systeme zur Erkennung von Entscheidungsmustern oder Ungereimtheiten, z. B. bei der Benotung von Lehrern.

📌AI-Modelle, die für vorbereitende Aufgaben eingesetzt werden, um die Risikoauswirkungen des Systems zu verringern, wie z. B. Software für die Dateiverarbeitung.

Darüber hinaus gilt jedes KI-System, das an der Erstellung von Personenprofilen beteiligt ist, nach wie vor als hochriskant.

Die Marktaufsichtsbehörden werden eine entscheidende Rolle bei der Bewertung von KI-Systemen und der Gewährleistung der Einhaltung der Vorschriften spielen. Sie können Geldstrafen verhängen, wenn ein KI-Anbieter sein System falsch im Sinne des KI-Gesetzes einstuft.

👉🏻The Die Europäische Kommission kann die Kriterien auf der Grundlage technologischer Entwicklungen oder Änderungen an der Liste kritischer Anwendungsfälle aktualisieren, aber nur, wenn es konkrete Beweise dafür gibt, dass KI-Systeme mit hohem Risiko keine signifikanten Risiken darstellen und die Änderungen den Gesamtschutz nicht verringern.