Zum Inhalt springen

EU plant rechtlichen Rahmen für Künstliche Intelligenz

Europäische Flagge mit Platine vor dramatischem Himmel

Entwicklung und Einsatz von Künstlicher Intelligenz (KI) zu fördern ist wichtig, damit Europa mit der technologischen Entwicklung Schritt halten oder sogar eine Führungsrolle übernehmen kann. Zugleich müssen aber die Grundrechte der Menschen wirksam geschützt und ihr Vertrauen in diese zukunftsweisende Technologie gefördert werden. Vor dieser schwierigen Aufgabe steht die EU-Kommission.

Worum geht es?

Bereits im April 2021 hat die EU-Kommission einen Vorschlag für eine Verordnung vorgelegt, die einen verbindlichen rechtlichen Rahmen für Entwicklung und Einsatz von KI in der EU schaffen soll. Angesichts des Zielkonfliktes zwischen Technologieförderung einerseits und Schutz der Bürgerinnen und Bürger andererseits ist der Entwurf naturgemäß Gegenstand intensiver Diskussionen.

Betroffen sind grundsätzlich alle Ausprägungen der KI. Die Bandbreite reicht hier von relativ einfachen Anwendungen wie selbstlernenden Spamfiltern über Verfahren zur Bild-, Text- und Spracherkennung, Assistenzverfahren zur Wartung von Maschinen und Smarthome-Anwendungen, bis zum technisch hoch anspruchsvollen autonomen Fahren. Erfasst wird jede Art des Inverkehrbringens, der Inbetriebnahme und der Nutzung von KI-Anwendungen innerhalb der EU – unabhängig davon, ob der Anbieter seinen Unternehmenssitz oder eine Niederlassung in der EU hat oder außerhalb.

Welche Pflichten sind geplant?

Der Entwurf der KI-Verordnung sieht eine Einteilung der betroffenen Anwendungen in vier Risikoklassen vor. Je riskanter eine Anwendung ist, desto höher sind die rechtlichen Anforderungen, denen sie genügen muss.

Für Anwendungen mit minimalem Risiko – hierunter fallen zum Beispiel selbstlernende Spamfilter und KI-unterstützte Videospiele – sieht der Verordnungsentwurf keine zwingenden Verpflichtungen vor, Anbieter und Anwender solcher Systeme können sich aber einem freiwilligen Verhaltenskodex unterwerfen.

Für Anwendungen mit geringem Risiko wie etwa Chatbots soll es bestimmte Transparenzpflichten geben. Wer solche Anwendungen einsetzt, wäre dann verpflichtet, ausdrücklich auf diese Tatsache hinzuweisen.

Strenge Anforderungen sind für Anwendungen mit hohem Risiko vorgesehen. In diese Gruppe fallen unter anderem die biometrische Identifikation natürlicher Personen, KI-Systeme, die in der Industrie und in der kritischen Infrastruktur (zum Beispiel Wasser-, Gas-, Wärme-, Stromversorgung, Verkehr, Müllentsorgung) als Sicherheitskomponenten eingesetzt werden, KI-Anwendungen im Bereich der Human Resources und der Aus- und Weiterbildung, aber auch KI-gestützte Verfahren auf den Gebieten der Migration, der Rechtspflege und der Strafverfolgung.

Für diese Hochrisikoanwendungen sollen folgende regulatorische Vorgaben gelten:

  • Schaffung eines umfassenden Qualitäts- und Risikomanagementsystems, das als kontinuierlicher iterativer Prozess über den gesamten Lebenszyklus des Systems fortgeführt wird.
  • Umfassende Dokumentations- und Protokollierungspflichten, deren jederzeitige Einhaltung bereits durch entsprechende Vorkehrungen in der technischen Konzeption der Anwendung sichergestellt sein muss.
  • Veröffentlichung von Informationen zur Zweckbestimmung sowie zu Genauigkeit, Robustheit und Cybersicherheit der Anwendung.
  • Umfassende technische Dokumentation aller Anwendungsbestandteile und des gesamten Entwicklungsprozesses.
  • Bei KI-Systemen, die mittels Daten trainiert werden, muss sichergestellt sein, dass die Trainings-, Validierungs- und Testdatensätze relevant, repräsentativ, fehlerfrei und vollständig sind.
  • Durchführung eines dokumentierten Konformitätsbewertungsverfahrens durch den Anbieter.
  • Registrierung des Systems in einer öffentlich einsehbaren EU-Datenbank.

Unabhängig von der allgemeinen Risikoeinstufung soll es Transparenz- und Hinweispflichten bei Systemen geben, die ein hohes Manipulationsrisiko bergen, wie etwa Emotionserkennungssoftware und Anwendungen, die Bild-, Film- und Audioinhalte erzeugen oder verändern.

Vollständig verboten werden sollen Anwendungen, die mit dem Menschenbild und den ethischen Grundsätzen der EU unvereinbar sind. Das würde etwa für Social-Scoring-Systeme gelten, wie sie in China bereits zum Einsatz kommen. Unter dieses Verbot fallen auch alle manipulativen Maßnahmen, die den Meinungsbildungsprozess einer Person beeinflussen, sowie Maßnahmen zur biometrischen Fernidentifikation in Echtzeit, die im öffentlichen Bereich zu Strafverfolgungszwecken angewandt werden könnten.

Der Entwurf wird im EU-Ministerrat und im Europäischen Parlament noch ebenso intensiv wie kontrovers diskutiert werden. Was am Ende geltendes Recht wird, bleibt abzuwarten. Betroffene Unternehmen sollten die weitere Entwicklung aber genau verfolgen. Wichtig zu wissen ist dabei: Die EU-Verordnung wird bei ihrem Inkrafttreten unmittelbar geltendes Recht, ohne dass es eines nationalen Umsetzungsgesetzes bedürfte.

nv-author-image

Susanne Haack

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*