(Reuters) - Nach mehr als zwei Jahren ist die Verabschiedung des europäischen "AI Act" zur Regulierung der Künstlichen Intelligenz (KI) in greifbare Nähe gerückt.
Bei einem Treffen der EU-Botschafter gab einem Insider zufolge eine Mehrheit der EU-Mitgliedsstaaten dem Regelwerk grünes Licht. Kurz zuvor hatte Frankreich eingelenkt, nachdem wenige Tage zuvor bereits Deutschland seinen Widerstand aufgegeben hatte. Die beiden Staaten hatten gemeinsam mit Italien vergeblich versucht, moderatere Auflagen für bestimmte KI-Anbieter durchzusetzen.
Der "AI Act" ist das weltweit erste umfassende Gesetzespaket für KI. Die meisten Staaten haben bislang vor allem Verordnungen und Dekrete erlassen. Das Regelwerk könnte zu einem Vorbild für die KI-Regulierung werden. Es wäre eine Alternative zu den eher lockeren Regeln der USA und den restriktiveren Auflagen Chinas.
Grundsätzlich sollen KI-Anwendungen unterschiedlichen Risiko-Kategorien von "Minimal" über "Hoch" bis "Inakzeptabel" zugeordnet werden. Je nach Einstufung müssen die Anbieter bestimmte Sicherheits- und Transparenz-Anforderungen erfüllen. Nachfolgend weitere Informationen zum "AI Act":
AUF WELCHE BEREICHE ERSTRECKT SICH DAS GESETZ?
Das Gesetz ist weitreichend und gilt für alle, die ein Produkt oder eine Dienstleistung auf KI-Basis anbieten. Es deckt Anwendungen ab, die Inhalte, Vorhersagen und Empfehlungen liefern oder die Entscheidungsfindung der Nutzer beeinflussen. Dabei stehen nicht nur kommerzielle Angebote, sondern auch die Nutzung von KI im öffentlichen Sektor wie zum Beispiel bei der Strafverfolgung im Fokus. Der "AI Act" soll die Datenschutz-Grundverordnung (DSGVO) ergänzen.
AUFLAGEN FÜR HOCHRISIKO-ANWENDUNGEN
Anbieter von KI-Programmen, die potenziell Gesundheit, Sicherheit, Bürgerrechte, Umwelt, Demokratie, Wahlen und Rechtsstaatlichkeit gefährden, müssen für eine Zulassung eine Reihe von Auflagen erfüllen. Hierzu gehört unter anderem eine Folgenabschätzung für den Einfluss auf die Grundrechte.
Für KI, die als weniger riskant betrachtet wird, gelten vor allem Transparenzregeln. So müssen von diesen Programmen erstellte Inhalte als solche gekennzeichnet werden, damit Nutzer selbst entscheiden können, wie sie diese nutzen wollen.
KI IN DER STRAFVERFOLGUNG
Um den Einsatz dieser Technologie in der Strafverfolgung wurde bis zuletzt heftig gestritten. Behörden dürfen biometrische Echtzeit-Erkennung im öffentlichen Raum nutzen, um Opfer von Entführungen, Menschenhandel und sexueller Ausbeutung zu identifizieren sowie eine konkrete und unmittelbare Terrorismus-Gefahr abzuwehren. Darüber hinaus darf KI bei der Fahndung nach Personen eingesetzt werden, die terroristischer Straftaten, anderer Kapitalverbrechen, der Mitgliedschaft in einer kriminellen Vereinigung oder der Umweltkriminalität verdächtigt werden.
Der Entwurf des Europaparlaments hatte derartige Anwendungsgebiete verboten. Die EU-Staaten beharrten aber auf Ausnahmen zum Schutz der nationalen Sicherheit.
VERBOTENE KI-ANWENDUNGEN
Der "AI Act" verbietet eine Reihe KI-Anwendungen, die als inakzeptabel eingestuft werden. Hierzu gehören biometrische Kategorisierungssysteme, die sensible Merkmale wie politische oder religiöse Überzeugungen, sexuelle Orientierung oder ethnische Zugehörigkeit verwenden. Unzulässig ist außerdem ein ungezieltes Durchforsten des Internets oder der Aufnahmen von Überwachungsanlagen zur Erstellung von Gesichtsdatenbanken.
KI darf auch nicht zur Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen eingesetzt werden. Programme zur Manipulation menschlichen Verhaltens sind ebenso verboten wie Anwendungen, die Schwächen von Menschen aufgrund Alter, Behinderung, sozialer oder wirtschaftlicher Situation auszunutzen. Darüber hinaus darf KI nicht zur Erstellung eines Benotungssystems für soziales oder persönliches Verhalten ("Social Scoring") genutzt werden.
"GPAIS" UND GRUNDLAGENMODELLE
GPAIS steht für General Purpose AI Systems oder allgemein einsetzbare KI. Diese Gesetzeskategorie wurde auf den letzten Drücker für die recht neue Generative KI geschaffen. Programme wie ChatGPT können unter anderem anhand weniger Stichworte komplette Texte oder Bilder erstellen und in unterschiedlichen Anwendungsbereichen eingesetzt werden. Bei Beginn der Arbeiten am "AI Act" 2021 war diese Technologie in der Öffentlichkeit noch unbekannt.
Die Anbieter von GPAIS beziehungsweise Grundlagenmodellen ("Foundation Models") müssen Transparenzpflichten erfüllen. Hierzu gehört eine detaillierte technische Dokumentation und Informationen über die Daten, die für das Training der KI genutzt wurden. Darüber hinaus sollen sie sicherstellen, dass EU-Urheberrechtsgesetze eingehalten werden.
Bei systemisch riskant eingestuften Foundation Models müssen die Anbieter ihre Modelle zusätzlich umfangreich testen, evaluieren und Risiken minimieren. Außerdem besteht eine Meldepflicht für schwerwiegende Vorfälle.
WELCHE STRAFEN SIEHT DER "AI ACT" VOR?
Bei einem Gesetzesverstoß drohen Strafen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Gewinns - je nachdem, welcher Betrag höher ist. Im Falle des Softwarekonzerns Microsoft, dessen Beteiligung OpenAI ChatGPT entwickelt hat, könnte sich dies auf mehr als zehn Milliarden Dollar summieren.
WANN TRITT DAS GESETZ IN KRAFT?
Nach der offiziellen Verabschiedung bleibt den betroffenen Firmen - je nach der Art der KI - eine Frist von bis zu zwei Jahren, um sich an die neuen Rahmenbedingungen anzupassen. Um diese Lücke zu überbrücken, will die EU große Technologiekonzerne und maßgebliche KI-Entwickler zu einer freiwilligen Selbstkontrolle verpflichten. Dem Gesetz müssen sich auch Firmen aus Drittstaaten unterwerfen, sofern sie ihre Dienstleistungen in der EU anbieten.
(Zusammengestellt von Supantha Mukherjee, Martin Coulter und Hakan Ersen. Redigiert von Olaf Brenner und Scot W. Stevenson; Bei Rückfragen wenden Sie sich bitte an unsere Redaktion unter berlin.newsroom@thomsonreuters.com (für Politik und Konjunktur) oder frankfurt.newsroom@thomsonreuters.com (für Unternehmen und Märkte).)