So soll der AI ACT künstliche Intelligenz regulieren.

Am 9.12.2023 gelang eine Einigung zwischen dem Europäischen Parlament und dem Europäischen Rat über den AI ACT, ein Gesetz zur Regulierung von künstlicher Intelligenz (Artificial Intelligence, kurz: AI). Der AI Act der EU ist der erste umfassende Rechtsrahmen für künstliche Intelligenz weltweit. Basierend auf Informationen der EU Kommission ergeben sich folgende wichtige Eckpunkte:


Die neuen Vorschriften sollen in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von AI unmittelbar und in gleicher Weise angewandt werden und einen risikobasierten Ansatz verfolgen.

Minimales Risiko: Die große Mehrheit der AI-Systeme soll in die Kategorie des minimalen Risikos fallen. Anwendungen mit minimalem Risiko wie AI-gestützte Empfehlungssysteme oder Spam-Filter sollen von fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger:innen darstellen.

Hohes Risiko: AI-Systeme, die als hochriskant eingestuft werden, müssen strenge Anforderungen erfüllen. Zum Beispiel: Systeme zur Risikominderung, eine hohe Datenqualität, Protokollierung von Aktivitäten, menschliche Aufsicht und ein hohes Maß an Genauigkeit und Cybersicherheit. Regulatorische Sandboxes sollen die verantwortungsvolle Entwicklung von konformen AI-Systemen erleichtern.
Beispiele für AI-Systeme mit hohem Risiko sind z. B. kritische Infrastruktur (Wasser, Gas und Strom), medizinische Geräte, Systeme zur Bestimmung oder Auswahl von Personen (bei demokratischen Prozessen, Strafverfolgung, Grenzkontrolle, Justizverwaltung, Zugangsbeschränkungen zu Bildungsangeboten), sowie biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme.

Inakzeptables Risiko: AI-Systeme, die eindeutigcGrundrechte bedrohen, sollen verboten werden. Z. B.: Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen der Nutzer:innen zu umgehen, wie etwa Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördert, oder „Social Scoring“-Systeme, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Ebenfalls verboten werden einige biometrische Anwendungen, z. B. Emotionserkennung am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Echtzeit-Fernidentifizierung zu Strafverfolgungszwecken (mit strengen Ausnahmen).

Spezifisches Transparenzrisiko: AI-Systeme wie Chatbots sollten von den Nutzer:innen erkennbar sein. Deep Fakes und andere AI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer:innen müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber sollen Systeme so gestalten werden, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.

Geldbußen

Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen:

  • Die Bußgelder würden zwischen 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist) für Verstöße gegen verbotene AI-Anwendungen,
  • 15 Mio. EUR oder 3 % für Verstöße gegen andere Verpflichtungen,
  • und 7,5 Mio. EUR oder 1,5 % für die Übermittlung falscher Informationen liegen.

Für KMUs und Start-ups sollen bei Verstößen gegen das AI-Gesetz verhältnismäßigere Obergrenzen für Bußgelder vorgesehen werden.

General Purpose AI (allgemeine KI)

Mit dem AI-Gesetz sollen spezielle Regeln für General Purpose AI Modelle eingeführt werden, die die Transparenz entlang der Wertschöpfungskette sicherstellen sollen. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche Verpflichtungen für Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit Gegenmaßnahmen geben. Diese neuen Verpflichtungen sollen durch Verhaltenskodizes umsetzbar gemacht werden, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden sollen. Ein neues Amt für AI soll die Umsetzung und Durchsetzung der neuen Vorschriften für General Purpose AI überwachen.

Nächste Schritte

Die politische Einigung muss nun noch vom Europäischen Parlament und vom Rat formell genehmigt werden und wird 20 Tage nach der Veröffentlichung im Amtsblatt in Kraft treten.

  • Das AI-Gesetz soll dann zwei Jahre nach seinem Inkrafttreten anwendbar sein, Ausnahmen:
  • Verbote sollen bereits nach 6 Monaten,
  • Vorschriften für General Purpose AI sollen nach 12 Monaten anwendbar sein.

Um Regeln für vertrauenswürdige AI auf internationaler Ebene zu fördern, wird die Europäische Union weiterhin in Foren wie der G7, der OECD, dem Europarat, der G20 und der UNO mitarbeiten. Erst kürzlich hat die EU die Einigung der G7-Staats- und Regierungschefs im Rahmen des Hiroshima-Prozesses für AI auf internationale Leitprinzipien und einen freiwilligen Verhaltenskodex für fortgeschrittene AI-Systeme unterstützt.


Weiterführende Informationen zu Artificial Intelligence

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlassen Sie uns Ihren Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert