Was ist der AI Act?
Der Rat der 27 EU-Mitgliedstaaten hat am 21. Mai 2024 den AI Act verabschiedet.
Der AI Act (Artificial Intelligence Act) ist ein umfassendes Gesetz der Europäischen Union, das die erste weltweite Regulierung von Künstlicher Intelligenz (KI) darstellt und am 1. August 2024 in Kraft getreten ist.
Dieses Gesetz zielt darauf ab, eine sichere und ethische Nutzung von KI-Technologien zu gewährleisten, indem klare Regeln und Vorschriften für die Entwicklung, Implementierung und Anwendung von KI-Systemen festgelegt werden.
Struktur des AI Act
Der AI Act teilt KI-Systeme in verschiedene Risikokategorien ein und legt spezifische Anforderungen und Verpflichtungen fest:
- Unvertretbares Risiko: Diese Systeme sind vollständig verboten. Dazu gehören Anwendungen, die grundlegende Rechte und Freiheiten der Bürger verletzen, wie etwa biometrische Kategorisierung oder manipulative Systeme.
- Hohes Risiko: Diese Systeme müssen strenge Auflagen erfüllen, einschließlich einer Bewertung der Auswirkungen auf die Grundrechte, Transparenzanforderungen und regelmäßiger Überprüfungen.
- Begrenztes Risiko: Für diese Systeme gelten bestimmte Transparenzverpflichtungen, wie die Kennzeichnung von KI-Interaktionen.
- Minimales Risiko: Diese Systeme unterliegen nur wenigen oder gar keinen regulatorischen Anforderungen.
Ziele des AI Act
1. Schutz der Grundrechte und Demokratie
Eines der Hauptziele des AI Acts ist der Schutz der Grundrechte und der Demokratie in Europa. Dies bedeutet, dass KI-Systeme so gestaltet sein müssen, dass sie die Menschenrechte respektieren und keine diskriminierenden oder ungerechten Praktiken fördern. Beispiele für verbotene Anwendungen sind:
- Biometrische Kategorisierung: Systeme, die sensible Merkmale wie politische oder religiöse Überzeugungen verwenden.
Beispiel: Eine KI, die Personen nach ihren politischen Ansichten kategorisiert und diese Daten für diskriminierende Zwecke verwendet, wie etwa die gezielte Überwachung bestimmter Gruppen. - Manipulative KI: Systeme, die das Verhalten von Menschen manipulieren, um ihren freien Willen zu umgehen.
Beispiel: Eine KI, die gezielt emotional manipulative Werbung anzeigt, um Menschen dazu zu bringen, bestimmte Entscheidungen zu treffen, z.B. übermäßigen Konsum von Produkten, die sie eigentlich nicht benötigen.
2. Förderung von Innovation und Wettbewerb
Ein weiteres Ziel des AI Acts ist die Förderung von Innovation und Wettbewerb im Bereich der KI. Durch klare und vorhersehbare Regeln sollen Unternehmen ermutigt werden, neue und innovative KI-Technologien zu entwickeln. Dies wird durch sogenannte „Regulatory Sandboxes“ unterstützt, in denen Unternehmen ihre Technologien in einer kontrollierten Umgebung testen können, bevor sie auf den Markt kommen.
3. Umweltschutz
Der AI Act berücksichtigt auch die ökologischen Auswirkungen von KI-Technologien. Unternehmen müssen sicherstellen, dass ihre KI-Systeme energieeffizient sind und die Umwelt so wenig wie möglich belasten.
4. Transparenz und Verantwortung
Der AI Act legt großen Wert auf Transparenz und Verantwortung. Entwickler und Anbieter von KI-Systemen müssen technische Dokumentationen bereitstellen, die Informationen über die verwendeten Trainingsdaten und die Funktionsweise der Systeme enthalten. Dies soll sicherstellen, dass KI-Systeme nachvollziehbar und sicher sind.
Was ist Künstliche Intelligenz (KI) überhaupt?
Künstliche Intelligenz (KI) bezeichnet Technologien, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern. Dazu gehören Sprachverarbeitung, Bild- und Mustererkennung, Entscheidungsfindung und vieles mehr. KI-Systeme lernen aus Daten und passen sich an, um ihre Leistung im Laufe der Zeit zu verbessern. Bekannte Beispiele sind Sprachassistenten wie Siri oder Alexa, autonome Fahrzeuge und personalisierte Empfehlungen auf Streaming-Diensten wie Netflix.
Mit der zunehmenden Verbreitung von KI-Technologien stellt sich die Frage, wie diese innovativen Systeme reguliert werden können, um sowohl Chancen zu maximieren als auch Risiken zu minimieren. Genau hier setzt der Artificial Intelligence Act (AI Act) der Europäischen Union an, der am 1. August 2024 in Kraft getreten ist.
Warum brauchen wir eine Regulierung wie den AI Act?
Die rasante Entwicklung von KI bringt nicht nur Chancen, sondern auch Risiken mit sich. Ohne Regulierung könnten KI-Systeme missbraucht werden, um Menschen zu überwachen, ihre Rechte zu verletzen oder Entscheidungen zu beeinflussen, die ihre Lebensqualität beeinträchtigen. Beispiele hierfür sind:
- Gesichtserkennung: Diese Technologie kann zur Überwachung und unbefugten Erfassung persönlicher Daten verwendet werden.
- Manipulative Algorithmen: KI, die das Verhalten von Menschen beeinflusst, um Entscheidungen zu manipulieren, z. B. durch gezielte Werbung oder Fake News.
- Diskriminierung: KI-Systeme können unbewusst Vorurteile verstärken, wenn sie auf voreingenommenen Daten trainiert werden, z. B. bei Einstellungsverfahren.
Verpflichtungen für Hochrisikosysteme
KI-Systeme, die als hochriskant eingestuft werden, unterliegen strengen Verpflichtungen:
- Auswirkungsbewertung der Grundrechte: Pflicht für hochriskante Systeme.
- Bürgerrechte: Bürger können Beschwerden einreichen und Erklärungen zu Entscheidungen verlangen, die auf hochriskanten KI-Systemen basieren.
- Wahlen und Wählerverhalten: Systeme, die Wahlen beeinflussen, gelten ebenfalls als hochriskant.
Unterstützung von Innovation und KMUs
Um Innovationen zu fördern und KMUs zu unterstützen, wurden „Regulatory Sandboxes“ und Real-World-Tests eingeführt. Diese ermöglichen es Unternehmen, neue KI-Technologien in einer kontrollierten Umgebung zu entwickeln und zu testen, bevor sie auf den Markt kommen.
Sanktionen bei Nichteinhaltung
Die Nichteinhaltung der Vorschriften kann zu erheblichen Geldstrafen führen:
- Bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes bei schwerwiegenden Verstößen.
- Bis zu 7,5 Millionen Euro oder 1,5 % des Umsatzes bei geringeren Verstößen.
Der AI Act der EU setzt weltweit Maßstäbe für die Regulierung von Künstlicher Intelligenz. Er schafft ein ausgewogenes Verhältnis zwischen Innovation und dem Schutz grundlegender Rechte. Die schrittweise Umsetzung und die Unterstützung durch Regulierungs-Sandboxes stellen sicher, dass Unternehmen ausreichend Zeit und Ressourcen haben, um sich an die neuen Anforderungen anzupassen. Dieser AI Act markiert einen wichtigen Schritt hin zu einer sichereren und ethischeren Nutzung von KI-Technologien in der digitalen Ära.
Zeitplan für das EU-KI-Gesetz (AI Act)
2024
- 12. Juli: Das KI-Gesetz wird im Amtsblatt der EU veröffentlicht und damit offiziell notifiziert.
- 1. August: Inkrafttreten des KI-Gesetzes. Zu diesem Zeitpunkt gelten noch keine Anforderungen.
- 2. November: Frist für Mitgliedstaaten, zuständige Behörden zu benennen, diese öffentlich aufzulisten und die EU-Kommission sowie andere Mitgliedstaaten zu informieren.
2025
- 2. Februar: Erste Anforderungen treten in Kraft:
- Verbot bestimmter KI-Systeme (z. B. manipulative oder diskriminierende Systeme).
- Einführung von Anforderungen an die KI-Kompetenz.
- 2. Mai: Frist für die EU-Kommission, Verhaltenskodizes für Anbieter fertigzustellen.
- 2. August: Weitere wichtige Regeln treten in Kraft:
- Vorschriften für benannte Stellen (Kapitel III, Abschnitt 4).
- Anforderungen an GPAI-Modelle (KI-Modelle für allgemeine Zwecke).
- Governance-Regeln (Kapitel VII).
- Sanktionen und Geldbußen (Artikel 99 und 100).
- Frist für Mitgliedstaaten, nationale Behörden zu benennen un Sanktionenregelungen festzulegen.
2026
- 2. Februar: Die EU-Kommission veröffentlicht Leitlinien zur praktischen Umsetzung von Artikel 6 (z. B. Überwachung nach dem Inverkehrbringen).
- 2. August: Vollständige Anwendung der Verordnung mit Ausnahme von Artikel 6(1), der später in Kraft tritt.
2027
- 2. August: Anbieter von GPAI-Modellen, die vor dem 2. August 2025 in Verkehr gebracht wurden, müssen bis zu diesem Datum alle Anforderungen des Gesetzes erfüllen.
- Artikel 6 (1) tritt ebenfalls in Kraft.
2030
- 31. Dezember: Letzte Frist für IT-Großsysteme (z. B. staatliche oder kritische Infrastrukturen), die vor dem 2. August 2027 in Betrieb genommen wurden, um mit der Verordnung konform zu sein.
Langfristige Überprüfungen
- Ab 2028 erfolgen regelmäßige Berichte und Bewertungen durch die EU-Kommission, z. B. zur Wirksamkeit der Verordnung, den Fortschritten bei der Standardisierung und möglichen Anpassungen der Vorschriften.
Dieser Zeitplan zeigt die schrittweise Einführung und Umsetzung des EU-KI-Gesetzes bis hin zur vollständigen Anwendung aller Bestimmungen und langfristigen Überprüfungen durch die EU-Kommission.