Ein Meilenstein bei der Regulierung künstlicher Intelligenz
Der europäische AI-Act
Der AI Act ist ein Kernstück der EU-Digitalstrategie
© RafMaster / stock.adobe.com
Glaubt man Experten, wird Künstliche Intelligenz (KI) unser Leben mindestens ebenso dramatisch verändern wie einst das Internet oder das Smartphone. Die Anwendungsgebiete sind schier unbegrenzt: Sie reichen von Empfehlungssystemen im Internethandel über Bildgeneratoren und Chatbots bis hin zu IT-Systemen, die bei der Strafverfolgung oder in der Medizin eingesetzt werden können. Um mögliche Risiken bei der Anwendung von KI zu minimieren, hat die Europäische Kommission nun den weltweit ersten Gesetzesvorschlag vorgelegt, den sogenannten Artificial Intelligence Act (AI-Act). Er soll die neue Technologie regulieren. Doch nicht alle sind mit dieser EU-Verordnung zufrieden.
Erster umfassender Rechtsrahmen
Anfang Dezember 2023 war es soweit: Nach mehrjährigen Verhandlungen hatten sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU auf ein Gesetz zur die Künstlichen Intelligenz politisch geeinigt. Ursula von der Leyen, Präsidentin der Europäischen Kommission, kommentierte das Ergebnis zufrieden: „Das EU-Gesetz über die Künstliche Intelligenz ist der erste umfassende Rechtsrahmen für Künstliche Intelligenz weltweit. Dies ist also ein historischer Moment. Mit dem KI-Gesetz werden die europäischen Werte in eine neue Ära überführt.“ Kernpunkt der neuen Verordnung ist ein risikobasierter Ansatz. Das bedeutet, dass Anwendungen, die KI-Technologien verwenden, in vier verschiedene Risikokategorien unterteilt werden.
Der risikobasierte Ansatz
- Minimales Risiko
Die meisten KI-Systeme werden voraussichtlich in diese Gruppe mit dem minimalen Risiko gehören. Dazu gehören KI-gestützte Empfehlungssysteme etwa im Online-Handel, KI-gestützte Videospiele oder Spam-Filter. Für sie sieht die Verordnung einen Freipass und kaum Verpflichtungen vor. - Hohes Risiko
Zu den KI-Systeme mit hohem Risiko gehören unter anderem autonome Fahrzeuge oder medizinische Geräte, die eine erhebliche Bedrohung für die Gesundheit, Sicherheit oder die Grundrechte des Einzelnen darstellen können. Bei ihnen müssen deshalb strenge Anforderungen erfüllt sein; darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von KI-Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. - Kritische Infrastrukturen
Besonders risikoreich ist der Einsatz von KI-Systemen bei bestimmten kritischen Infrastrukturen etwa bei der Wasser-, Gas- und Stromversorgung. Dazu gehören aber auch medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen – etwa bei der Verteilung von Studienplätzen – oder zur Rekrutierung von Personen sowie Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant. - Unannehmbares Risiko
In diese Kategorie fallen KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen. Sie werden deshalb vollständig verboten. Beispiele dafür sind etwa KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie etwa Spielzeug mit Sprachassistenz, das ein gefährliches Verhalten von Minderjährigen fördern könnte, oder Systeme, die ein „Social Scoring“ durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit.
Transparenz für die Nutzer
Für die Nutzer soll jederzeit erkennbar sein, wenn sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden. Außerdem müssen die Nutzer informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass von der KI erzeugte Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können. Halten sich Unternehmen nicht an die Vorschriften, müssen mit hohen Geldstrafen rechnen. Endgültig beschlossen ist das neue KI-Gesetz jedoch noch nicht, denn es muss nun noch vom Europäischen Parlament und vom Rat formell genehmigt werden.
Wettbewerbshemmnis für europäische Unternehmen
Doch das neue Gesetz bekommt nicht nur Zustimmung. So bemängeln Kritiker beispielsweise die unklaren Definitionen. Die Auslegung von Begriffen wie „hochriskante KI-Anwendungen“ könnte zu Interpretationsproblemen führen und die Umsetzung erschweren. Außerdem werden die Regeln als zu starr und restriktiv empfunden. Die strengen Vorschriften des AI-Acts könnten die Innovationskraft vor allem der europäischen Unternehmen behindern. Umfangreiche Prüfungen und Zertifizierungen könnten zu Verzögerungen bei Markteinführungen führen. Darunter würde die Wettbewerbsfähigkeit der europäischen Unternehmen leiden. So befürchten einige Experten, dass die EU durch die strikten Regulierungen im globalen Wettbewerb um KI-Forschung und -Entwicklung ins Hintertreffen geraten könnte. Andere Regionen, die lockerere Vorschriften haben, könnten schneller Fortschritte erzielen. Lukas Klingholz, Leiter Cloud & Künstliche Intelligenz beim Digitalverband Bitkom, sorgt sich beispielsweise darum, dass bereits bei der zugrundeliegenden Technologie der Basismodelle zu stark reglementiert wird: „Grundsätzlich unterstützen wir den risikobasierten Ansatz des KI-Gesetzes. Sie machen für die marktreifen KI-Anwendungen auch Sinn, vor allem wenn sie in sensiblen Bereichen eingesetzt werden, wie etwa in ausgewählten kritischen Einsatzfeldern im Justizwesen.“ Doch bei den komplexen Entwicklungsschritten hin zu einer fertigen Anwendung sollten Anforderungen und Regulierungen möglichst gering sein, da sie sonst die Innovationsdynamik ausbremsen würden. Als Beispiel nennt Klingholz sogenannte „General Purpose AI Systems“, zu deutsch: Allzweck-KI-Systeme. Darunter versteht man KI-Systeme, die allgemein anwendbare Funktionen wie Bild-/Spracherkennung, Audio-/Videoerzeugung, Mustererkennungen, Beantwortung von Fragen, Übersetzung usw. ausführen. Hier gibt es eine hohe Dynamik bei der Entwicklung und das sollte nicht durch bürokratische Reglementierungen eingeschränkt werden. „Erst wenn es um eine konkrete zweckgebundene Anwendung geht, beispielsweise die Erstellung eines KI-basierten Systems in Gerichtsverhandlungen, sollte die Gesetzgebung greifen“, erklärt Klingholz. Dann sollten beispielsweise risikominimierende Anforderungen definiert werden. So sollte man erkennen können, aufgrund welcher Quellen das System seine Empfehlungen erstellt. Insgesamt markiert der AI-Act aber einen bedeutenden Schritt in der Regulierung von KI in der EU. Er hat das Potenzial, die Rechte der Bürger zu schützen und für mehr Transparenz zu sorgen. Die Debatte über den richtigen Weg der KI-Regulierung wird sicherlich weiterhin intensiv geführt werden, sowohl innerhalb der EU als auch auf internationaler Ebene.
TE (26.01.2024)
Kurztipps
Mit diesen Tipps sind Sie für Ihren nächsten Flug gut gerüstet:
Darauf sollten Sie achten, wenn Sie Ihren nächsten Urlaub mit dem...
Darauf sollten Sie achten, wenn Sie im Winter eine sichere...
So sind Sie im Straßenverkehr mit einem Fahrradanhänger sicher...
So schützen Sie sich im Urlaub vor Trickbetrügern und anderen Ganoven.
So verhalten Sie sich bei einem Stau richtig.
Darauf sollten Sie achten, wenn Sie auf eine Wanderung gehen möchten.
Darauf sollten Sie achten, wenn Sie in der Wintersportsaison auf...
Darauf sollten Sie achten, wenn Sie ein dauerhaftes...
Darauf sollten Sie achten, wenn Sie in den Sommermonaten sicher im...
Darauf sollten Sie achten, wenn Sie in offenen Gewässern wie...
Darauf sollten Sie achten, wenn Sie mit dem Elektroroller unterwegs...
So schützen Sie sich vor Taschendieben und kommen sicher ans Ziel.
Ob Karneval, Fasching oder Fastnacht – darauf sollten Sie achten.
So können Sie sich vor Taschendiebstahl schützen.
Das sollten sie bei Inbetriebnahme einer Alarmanlage beachten.
So können Sie das Risiko für einen Pkw-Diebstahl deutlich reduzieren.
Darauf sollten Sie vor der Fahrt mit einem Gemeinschaftsauto achten.
Das sollten Sie beachten, wenn Sie Urlaubsandenken erwerben.
Darauf sollten Sie achten, wenn Sie Arzneimittel online bestellen.
Mit diesen Hinweisen kommen Sie sicher und stressfrei in den Urlaub.
Darauf sollten Sie achten, bevor Sie mit dem E-Fahrrad losfahren.
So können Autofahrer das Unfallrisiko reduzieren.
Das sollten Sie tun, wenn Sie einen Einbruch bemerken.
Taschendiebe sind flink und einfallsreich – und meist schon längst...
Weitere Infos für Urlauber
Mit dem Klemmbrett durch die Fußgängerzone
Vor allem in den Sommermonaten, wenn sich viele Menschen in der...[mehr erfahren]
Was tun, wenn die Wertsachen gestohlen werden?
Die Sonne scheint, man sitzt im Eiscafé und unterhält sich. Das...[mehr erfahren]
Wie man sich als Autofahrer schützen kann
Baustellen, ein hohes Verkehrsaufkommen und Unfälle sind die...[mehr erfahren]
Das Aufprallgewicht von Gegenständen wird oft unterschätzt
Das Sichern von Ladung ist ein wichtiges Thema, das jedoch oft nicht...[mehr erfahren]
Trügerische Sicherheit
Sie sehen aus wie echte Waffen – und hören sich auch fast so an: Die...[mehr erfahren]
Schützen Sie Ihre Immobilie gegen Einbruch!
Erklärung einschlägiger Präventions-Begriffe
Beliebte Artikel
Blechschaden, Nachbarschaftsstreit, Prügelei: Wann sollte man die Polizei rufen?
Bei Wohnungseinbrüchen, schweren Unfällen oder Körperverletzungen ist...[mehr erfahren]
Vertrauen ist gut, Kontrolle ist besser
Wer viel im Internet einkauft, kann bei seinen Zahlungen und...[mehr erfahren]
Wer den Unterschied nicht kennt, kann sich strafbar machen
Schwarzarbeit ist kein Kavaliersdelikt, sondern wird in schweren...[mehr erfahren]
Abstimmung
Soll in Deutschland ein generelles Alkoholverbot bis 18 Jahre eingeführt werden (auch für Mischgetränke, Bier, Sekt,…)?
Polizeicartoons
Hier finden Sie noch mehr Cartoons.