Der AI Act ist jetzt in Kraft: Was passiert jetzt?

Was ist der AI Act?

Der Rat der 27 EU-Mitgliedstaaten hat am 21. Mai 2024 den AI Act verabschiedet.

Der AI Act (Artificial Intelligence Act) ist ein umfassendes Gesetz der Europäischen Union, das die erste weltweite Regulierung von Künstlicher Intelligenz (KI) darstellt und am 1. August 2024 in Kraft getreten ist.

Dieses Gesetz zielt darauf ab, eine sichere und ethische Nutzung von KI-Technologien zu gewährleisten, indem klare Regeln und Vorschriften für die Entwicklung, Implementierung und Anwendung von KI-Systemen festgelegt werden.

Struktur des AI Act

Der AI Act teilt KI-Systeme in verschiedene Risikokategorien ein und legt spezifische Anforderungen und Verpflichtungen fest:

  • Unvertretbares Risiko: Diese Systeme sind vollständig verboten. Dazu gehören Anwendungen, die grundlegende Rechte und Freiheiten der Bürger verletzen, wie etwa biometrische Kategorisierung oder manipulative Systeme.
  • Hohes Risiko: Diese Systeme müssen strenge Auflagen erfüllen, einschließlich einer Bewertung der Auswirkungen auf die Grundrechte, Transparenzanforderungen und regelmäßiger Überprüfungen.
  • Begrenztes Risiko: Für diese Systeme gelten bestimmte Transparenzverpflichtungen, wie die Kennzeichnung von KI-Interaktionen.
  • Minimales Risiko: Diese Systeme unterliegen nur wenigen oder gar keinen regulatorischen Anforderungen.

Ziele des AI Act

1. Schutz der Grundrechte und Demokratie

Eines der Hauptziele des AI Acts ist der Schutz der Grundrechte und der Demokratie in Europa. Dies bedeutet, dass KI-Systeme so gestaltet sein müssen, dass sie die Menschenrechte respektieren und keine diskriminierenden oder ungerechten Praktiken fördern. Beispiele für verbotene Anwendungen sind:

  • Biometrische Kategorisierung: Systeme, die sensible Merkmale wie politische oder religiöse Überzeugungen verwenden.
    Beispiel: Eine KI, die Personen nach ihren politischen Ansichten kategorisiert und diese Daten für diskriminierende Zwecke verwendet, wie etwa die gezielte Überwachung bestimmter Gruppen.
  • Manipulative KI: Systeme, die das Verhalten von Menschen manipulieren, um ihren freien Willen zu umgehen.
    Beispiel: Eine KI, die gezielt emotional manipulative Werbung anzeigt, um Menschen dazu zu bringen, bestimmte Entscheidungen zu treffen, z.B. übermäßigen Konsum von Produkten, die sie eigentlich nicht benötigen.

2. Förderung von Innovation und Wettbewerb

Ein weiteres Ziel des AI Acts ist die Förderung von Innovation und Wettbewerb im Bereich der KI. Durch klare und vorhersehbare Regeln sollen Unternehmen ermutigt werden, neue und innovative KI-Technologien zu entwickeln. Dies wird durch sogenannte “Regulatory Sandboxes” unterstützt, in denen Unternehmen ihre Technologien in einer kontrollierten Umgebung testen können, bevor sie auf den Markt kommen.

3. Umweltschutz

Der AI Act berücksichtigt auch die ökologischen Auswirkungen von KI-Technologien. Unternehmen müssen sicherstellen, dass ihre KI-Systeme energieeffizient sind und die Umwelt so wenig wie möglich belasten.

4. Transparenz und Verantwortung

Der AI Act legt großen Wert auf Transparenz und Verantwortung. Entwickler und Anbieter von KI-Systemen müssen technische Dokumentationen bereitstellen, die Informationen über die verwendeten Trainingsdaten und die Funktionsweise der Systeme enthalten. Dies soll sicherstellen, dass KI-Systeme nachvollziehbar und sicher sind.

 

Was ist Künstliche Intelligenz (KI) überhaupt?

Künstliche Intelligenz (KI) bezeichnet Technologien, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern. Dazu gehören Sprachverarbeitung, Bild- und Mustererkennung, Entscheidungsfindung und vieles mehr. KI-Systeme lernen aus Daten und passen sich an, um ihre Leistung im Laufe der Zeit zu verbessern. Bekannte Beispiele sind Sprachassistenten wie Siri oder Alexa, autonome Fahrzeuge und personalisierte Empfehlungen auf Streaming-Diensten wie Netflix.

Mit der zunehmenden Verbreitung von KI-Technologien stellt sich die Frage, wie diese innovativen Systeme reguliert werden können, um sowohl Chancen zu maximieren als auch Risiken zu minimieren. Genau hier setzt der Artificial Intelligence Act (AI Act) der Europäischen Union an, der am 1. August 2024 in Kraft getreten ist.

 

Warum brauchen wir eine Regulierung wie den AI Act?

Die rasante Entwicklung von KI bringt nicht nur Chancen, sondern auch Risiken mit sich. Ohne Regulierung könnten KI-Systeme missbraucht werden, um Menschen zu überwachen, ihre Rechte zu verletzen oder Entscheidungen zu beeinflussen, die ihre Lebensqualität beeinträchtigen. Beispiele hierfür sind:

  • Gesichtserkennung: Diese Technologie kann zur Überwachung und unbefugten Erfassung persönlicher Daten verwendet werden.
  • Manipulative Algorithmen: KI, die das Verhalten von Menschen beeinflusst, um Entscheidungen zu manipulieren, z. B. durch gezielte Werbung oder Fake News.
  • Diskriminierung: KI-Systeme können unbewusst Vorurteile verstärken, wenn sie auf voreingenommenen Daten trainiert werden, z. B. bei Einstellungsverfahren.

Verpflichtungen für Hochrisikosysteme

KI-Systeme, die als hochriskant eingestuft werden, unterliegen strengen Verpflichtungen:

  • Auswirkungsbewertung der Grundrechte: Pflicht für hochriskante Systeme.
  • Bürgerrechte: Bürger können Beschwerden einreichen und Erklärungen zu Entscheidungen verlangen, die auf hochriskanten KI-Systemen basieren.
  • Wahlen und Wählerverhalten: Systeme, die Wahlen beeinflussen, gelten ebenfalls als hochriskant.

Unterstützung von Innovation und KMUs

Um Innovationen zu fördern und KMUs zu unterstützen, wurden “Regulatory Sandboxes” und Real-World-Tests eingeführt. Diese ermöglichen es Unternehmen, neue KI-Technologien in einer kontrollierten Umgebung zu entwickeln und zu testen, bevor sie auf den Markt kommen.

Sanktionen bei Nichteinhaltung

Die Nichteinhaltung der Vorschriften kann zu erheblichen Geldstrafen führen:

  • Bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes bei schwerwiegenden Verstößen.
  • Bis zu 7,5 Millionen Euro oder 1,5 % des Umsatzes bei geringeren Verstößen.
 

Der AI Act der EU setzt weltweit Maßstäbe für die Regulierung von Künstlicher Intelligenz. Er schafft ein ausgewogenes Verhältnis zwischen Innovation und dem Schutz grundlegender Rechte. Die schrittweise Umsetzung und die Unterstützung durch Regulierungs-Sandboxes stellen sicher, dass Unternehmen ausreichend Zeit und Ressourcen haben, um sich an die neuen Anforderungen anzupassen. Dieser AI Act markiert einen wichtigen Schritt hin zu einer sichereren und ethischeren Nutzung von KI-Technologien in der digitalen Ära.

Zeitplan der Umsetzung des AI Acts


Februar 2025: Verbotene KI-Praktiken

Bis zu diesem Datum müssen alle verbotenen KI-Praktiken vom Markt genommen werden. 

Zu den verbotenen Anwendungen gehören:

  • Biometrische Kategorisierungssysteme, die sensible Merkmale verwenden.

  • Ungenaue Gesichtserkennung: Erfassung von Gesichtsbildern aus dem Internet oder Überwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken.

  • Emotionserkennung: Einsatz am Arbeitsplatz und in Bildungseinrichtungen.

  • Sozialpunktesysteme, basierend auf sozialem Verhalten oder persönlichen Merkmalen.

  • Manipulative KI-Systeme, die menschliches Verhalten manipulieren, um den freien Willen zu umgehen.

  • Ausnutzung von Vulnerabilitäten: KI, die aufgrund von Alter, Behinderung, sozialer oder wirtschaftlicher Situation die Schwächen von Menschen ausnutzt.

Mai 2025: Verhaltenskodizes

Die ersten Verhaltenskodizes für KI-Entwickler werden bereitgestellt. Diese Kodizes bieten Leitlinien, wie KI-Systeme sicher und ethisch entwickelt werden können, um den Schutz der Grundrechte zu gewährleisten.

August 2025: Konformität für allgemeine KI-Modelle (GPAI)

Allgemeine KI-Modelle (GPAI) müssen bis zu diesem Datum konform sein. Entwickler müssen nachweisen, dass ihre Systeme sicher und für die Benutzer leicht verständlich sind. Generative KI und manipulierte Medien müssen klar gekennzeichnet sein.

Februar 2026: Vorschriften zur Überwachung

Die Europäische Kommission wird detaillierte Vorschriften zur Überwachung nach dem Inverkehrbringen verabschieden. Diese Vorschriften legen fest, wie KI-Systeme kontinuierlich überwacht und bewertet werden sollen.

August 2026: Vollständige Anwendbarkeit

Alle Vorschriften des AI Acts werden vollständig anwendbar. Dies schließt insbesondere Verpflichtungen für Hochrisikosysteme ein, die in Annex III des Gesetzes aufgeführt sind.

August 2027: Erweiterte Verpflichtungen

Zusätzliche Verpflichtungen für Hochrisikosysteme gemäß Annex I der EU-Harmonisierungsgesetzgebung treten in Kraft. Mitgliedstaaten müssen sicherstellen, dass ihre Behörden mindestens eine funktionierende KI-Regulierungs-Sandbox eingerichtet haben.

Weitere Beiträge