AI Act – Historische Einigung auf EU KI Gesetzgebung

Historische Einigung auf EU-KI-Gesetzgebung erreicht

Nach intensiven Verhandlungen hat die EU einen bahnbrechenden“Artificial Intelligence Act” kurz “AI Act” verabschiedet, der als weltweit erste Regulierung für Künstliche Intelligenz gilt. iese Verordnung zielt darauf ab, sicherzustellen, dass grundlegende Rechte, Demokratie, Rechtsstaatlichkeit und Umweltschutz vor KI mit hohem Risiko geschützt werden, gleichzeitig aber auch Innovationen gefördert werden und Europa in diesem Bereich eine führende Rolle einnimmt. Die Regeln legen Verpflichtungen für KI auf der Grundlage ihrer potenziellen Risiken und Auswirkungen fest.

Verbotene Anwendungen

Um die potenzielle Bedrohung der Bürgerrechte und der Demokratie durch bestimmte Anwendungen von KI anzuerkennen, einigten sich die Mitgesetzgeber darauf, folgende Anwendungen zu verbieten:

  • Biometrische Kategorisierungssysteme, die sensible Merkmale verwenden (z. B. politische, religiöse, philosophische Überzeugungen, sexuelle Orientierung, Rasse).
  • Ungenaue Erfassung von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken.
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen.
  • Sozialpunktesysteme basierend auf sozialem Verhalten oder persönlichen Merkmalen.
  • KI-Systeme, die das menschliche Verhalten manipulieren, um ihren freien Willen zu umgehen.
  • KI, die die Vulnerabilitäten von Menschen ausnutzt (aufgrund ihres Alters, ihrer Behinderung, ihrer sozialen oder wirtschaftlichen Situation).

Ausnahmen für Strafverfolgung

Die Verhandlungsführer einigten sich auf eine Reihe von Schutzmaßnahmen und engen Ausnahmen für die Verwendung von biometrischen Identifikationssystemen (RBI) in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken. Dies unterliegt einer vorherigen gerichtlichen Genehmigung und für genau definierte Listen von Straftaten. “Post Remote” RBI würde ausschließlich bei der gezielten Suche nach einer verurteilten oder verdächtigen Person eines schweren Verbrechens verwendet.

Real-Time” RBI würde strengen Bedingungen entsprechen, und seine Verwendung wäre zeitlich und räumlich begrenzt, zum Zweck von:

  • gezielten Suchen von Opfern (Entführung, Menschenhandel, sexuelle Ausbeutung),
  • Verhinderung einer spezifischen und aktuellen terroristischen Bedrohung oder
  • der Lokalisierung oder Identifizierung einer Person, die verdächtigt wird, eines der im Gesetz genannten Verbrechen begangen zu haben (z. B. Terrorismus, Menschenhandel, sexuelle Ausbeutung, Mord, Entführung, Vergewaltigung, bewaffneter Raub, Beteiligung an einer kriminellen Organisation, Umweltverbrechen).

Verpflichtungen für Hochrisikosysteme

Für als hochriskant eingestufte KI-Systeme, die aufgrund ihres erheblichen Schadenspotenzials für Gesundheit, Sicherheit, grundlegende Rechte, Umwelt, Demokratie und Rechtsstaatlichkeit klassifiziert sind, wurden klare Verpflichtungen festgelegt. Die Mitglieder des Europäischen Parlaments konnten erfolgreich eine obligatorische Auswirkungsbewertung der Grundrechte durchsetzen, neben anderen Anforderungen, die auch auf den Versicherungs- und Bankensektor anwendbar sind. KI-Systeme, die darauf abzielen, den Ausgang von Wahlen und das Wählerverhalten zu beeinflussen, werden ebenfalls als hochriskant eingestuft. Bürger haben das Recht, Beschwerden über KI-Systeme einzureichen und Erklärungen zu Entscheidungen zu erhalten, die auf hochriskanten KI-Systemen basieren und ihre Rechte beeinträchtigen.

Leitlinien für allgemeine Künstliche Intelligenz-Systeme

Um der Vielfalt der Aufgaben, die KI-Systeme erledigen können, und der raschen Entwicklung ihrer Fähigkeiten gerecht zu werden, wurde vereinbart, dass KI-Systeme mit allgemeiner Zweckmäßigkeit (GPAI) und die GPAI-Modelle, auf denen sie basieren, Transparenzanforderungen erfüllen müssen, wie sie vom Parlament ursprünglich vorgeschlagen wurden. Dazu gehören die Erstellung technischer Dokumentationen, die Einhaltung des EU-Urheberrechts und die Verbreitung detaillierter Zusammenfassungen über den für das Training verwendeten Inhalt.

Für hochwirksame GPAI-Modelle mit systemischen Risiken konnten die Mitglieder des Europäischen Parlaments strengere Verpflichtungen durchsetzen. Wenn diese Modelle bestimmte Kriterien erfüllen, müssen sie Modellbewertungen durchführen, systemische Risiken bewerten und mindern, adversariale Tests durchführen, der Kommission über schwerwiegende Vorfälle berichten, die Cybersicherheit sicherstellen und über ihre Energieeffizienz berichten. Die Mitglieder des Europäischen Parlaments bestanden auch darauf, dass, bis harmonisierte EU-Standards veröffentlicht werden, GPAIs mit systemischen Risiken sich auf Verhaltenskodizes verlassen können, um die Verordnung einzuhalten.

Maßnahmen zur Unterstützung von Innovation und KMUs

Die Mitglieder des Europäischen Parlaments wollten sicherstellen, dass Unternehmen, insbesondere kleine und mittlere Unternehmen (KMU), KI-Lösungen entwickeln können, ohne unangemessenen Druck von Branchenriesen zu spüren. Zu diesem Zweck fördert die Vereinbarung sogenannte “Regulatory Sandboxes” und Real-World-Testing, die von nationalen Behörden eingerichtet werden, um innovative KI zu entwickeln und zu schulen, bevor sie auf den Markt kommen.

Sanktionen und Inkrafttreten

Die Nichteinhaltung der Regeln kann zu Geldstrafen führen, die von 35 Millionen Euro oder 7 % des weltweiten Umsatzes bis zu 7,5 Millionen oder 1,5 % des Umsatzes reichen, abhängig von der Zuwiderhandlung und der Größe des Unternehmens.

Beispiel der Regulierung von Basismodellen

KI-Basismodelle wie GPT oder Googles Gemini unterliegen nun Transparenzverpflichtungen. Anbieter müssen technische Dokumentationen bereitstellen, die Informationen über Trainingsdaten und Testverfahren enthalten. Open-Source-Modelle sind von dieser Regelung ausgenommen. Künstler haben das Recht, die Entfernung ihrer Werke aus KI-Modellen zu verlangen, und KI-Produkte müssen entsprechend gekennzeichnet sein.

Die Transparenzpflichten sollen sicherstellen, dass Nutzer, Entwickler und Künstler ein klares Verständnis davon haben, wie diese Basismodelle funktionieren und welche Datenquellen genutzt werden. Durch die Kennzeichnungspflicht wird die Verantwortlichkeit betont und Vertrauen in die Nutzung von KI-Technologien gestärkt.

Schaffung von KI-Behörden

Der AI Act sieht die Einrichtung einer KI-Behörde vor, die sich hauptsächlich um die Regulierung von Basismodellen kümmert. Zusätzlich werden ein KI-Ausschuss und ein Beraterforum geschaffen, um als Schnittstelle zwischen Industrie, Politik, Wissenschaft und Zivilgesellschaft zu dienen. Diese Institutionen sollen sicherstellen, dass die Regulierung stets auf dem neuesten Stand ist, indem sie Entwicklungen in der KI-Technologie genau verfolgen und die Interessen verschiedener Akteure berücksichtigen.

Datensicherheit als Fundament der KI-Zukunft

Diese wegweisende Einigung markiert einen Meilenstein in der Entwicklung von KI-Regulierungen und stellt sicher, dass ethische und transparente Standards in der Anwendung von Künstlicher Intelligenz gewahrt bleiben. Besonders hervorzuheben ist die Bedeutung des Datenschutzes in dieser Gesetzgebung. Mit der Zunahme von KI-Anwendungen ist der Schutz persönlicher Daten essenziell, um individuelle Rechte zu wahren. Datenschutzbeauftragte spielen dabei eine entscheidende Rolle, indem sie sicherstellen, dass Unternehmen die neuen Vorschriften einhalten und die Privatsphäre ihrer Nutzer respektieren. Der “AI Act” schafft somit nicht nur klare Regeln für die KI-Entwicklung, sondern betont auch die Dringlichkeit eines starken Datenschutzrahmens in der digitalen Ära.

Kurzfassung

Die EU hat den “Artificial Intelligence Act” verabschiedet, eine wegweisende Regulierung für Künstliche Intelligenz (KI). Ziel ist der Schutz grundlegender Rechte, Demokratie und Umwelt vor hochriskanter KI, bei gleichzeitiger Förderung von Innovationen in Europa. 

Wichtige Punkte:

  1. Verbotene Anwendungen: Biometrische Kategorisierung, ungenaue Gesichtsbild-Erfassung, Emotionserkennung am Arbeitsplatz, Sozialpunktesysteme und manipulative KI sind untersagt.

  2. Ausnahmen für Strafverfolgung: Biometrische Identifikationssysteme dürfen unter engen Bedingungen zu Strafverfolgungszwecken verwendet werden.

  3. Verpflichtungen für Hochrisikosysteme: Obligatorische Auswirkungsbewertungen, transparente Verfahren und Beschwerderechte für als hochriskant eingestufte KI-Systeme.

  4. Leitlinien für allgemeine KI-Systeme: Transparenzanforderungen für KI mit allgemeiner Zweckmäßigkeit und strengere Verpflichtungen für hochwirksame Modelle mit systemischen Risiken.

  5. Maßnahmen zur Unterstützung von Innovation und KMUs: Förderung von “Regulatory Sandboxes” und Real-World-Testing für innovative KI-Entwicklungen.

  6. Sanktionen und Inkrafttreten: Geldstrafen für Regelverstöße, abhängig von der Größe des Unternehmens. Das Inkrafttreten erfolgt zwei Jahre nach Verabschiedung.

  7. Beispiel der Regulierung von Basismodellen: Transparenzverpflichtungen für KI-Basismodelle und Schaffung von KI-Behörden zur Regulierung.

  8. Datensicherheit: Betonung des Datenschutzes als Grundlage für verantwortungsbewusste KI-Nutzung.

Die Regelungen sollen einen ethischen und transparenten Umgang mit KI fördern und Europa als Vorreiter in diesem Bereich positionieren.