Company

EU AI Act: Was für Unternehmen jetzt wichtig ist

Charlotte Ertner

6.11.2024

Einleitung 

Spätestens seitdem Ende 2022 Open AI’s ChatGPT einen phänomenalen Hype ausgelöst hat, ist das Thema Künstliche Intelligenz (KI) nicht mehr aus dem Alltag und der Mitte unserer Gesellschaft wegzudenken. 

Ob im beruflichen - oder privaten Umfeld, fast jede:r hat Berührungspunkte mit KI. So wird sie bei vielen alltäglichen Prozessen, wie beispielsweise der Daten- und Dokumentenverarbeitung oder auch Bild- und Texterstellung, bereits eingesetzt. Nicht nur die sozialen Medien sind gefüllt mit KI-generierten Inhalten, auch viele Unternehmen greifen auf KI-basierte Softwarelösungen zurück. 

Neben den etlichen positiven Aspekten, die KI mit sich bringt, gilt es jedoch auch eine kritische Auseinandersetzung nicht zu vergessen.

Der rasante Anstieg der KI-Nutzung, aber auch der Ausbau der Entwicklungen in diesem Feld, rückte die Notwendigkeit in den Mittelpunkte Regulierungen zu treffen, welche einen Rahmen für den Umgang mit KI-Technologien beschreiben. Mit dem EU-AI Act, welcher der erste dieser Art ist, soll das Vertrauen in KI gestärkt und gleichzeitig die Arbeitsweisen mit dieser geregelt werden.

“Vertrauenswürdige KI bedeutet nicht, dass die Systeme selbst vertrauenswürdig sind, sondern, dass die Menschen, Unternehmen und Regierungen KI vertrauenswürdig einsetzen.” 

Mark Surman, Präsident Mozilla Foundation

Die Regelungen im EU AI Act, die in den nächsten zwei Jahren in den EU-Staaten umgesetzt werden, bringen, je nach Umfang der KI-Nutzung oder auch KI-Entwicklung, für die Unternehmen einen erheblichen Aufwand. Viele Unternehmen setzen KI vielfältig ein. Während die neuen Regelungen Vertrauen schaffen sollen, besteht die Gefahr, dass die Innovationskraft in Europa geschwächt wird. Im Vordergrund stehen umfangreiche administrative Anforderungen, wie zum Beispiel ein effektives Risikomanagement oder auch die Sicherstellung von Qualität, (technischer) Dokumentation und proaktive Informationspflicht. Wichtig sind auch die Überwachung des KI-Einsatzes und die Schaffung von Möglichkeiten zum rechtzeitigen Eingreifen während des Betriebs. 

Mit Taschenlampe wird ein Dokuemnt sichtbar auf dem EU-AI-Act steht

Doch:

"Die teils wohl bewusst unklaren Regelungen des AI Act machen eine Auslegung tatsächlich nicht immer leicht"

Deloitte-Partner Till Contzen 

Grund genug, den EU-AI Act näher zu betrachten und Licht ins Dunkel zu bringen.

Entwicklung & Entstehung des Gesetzentwurf 

Die Entwicklung des EU AI Acts gilt als ein bedeutender Schritt in der Regulierung von KI innerhalb der Europäischen Union. Im April 2021 präsentierte die Europäische Kommission diesen Gesetzentwurf mit dem Ziel, einheitliche Standards für den Einsatz von KI zu schaffen und gleichzeitig den Schutz der Bürger:innen zu gewährleisten. 

Nachdem der Gesetzesentwurf verabschiedet wurde, fand am 12. Juli 2024 die Veröffentlichung im Amtsblatt der EU statt. Mit dem Inkrafttreten am 1. August 2024 wurde eine neue Ära für die Nutzung von KI in Europa eingeläutet. Die meisten Regeln werden nach einer Übergangszeit von zwei Jahren in Kraft treten, während einige Bestimmungen bereits früher Anwendung finden. Ziel des AI Acts ist, dass innovative Technologien verantwortungsvoll eingesetzt werden, um sowohl wirtschaftliche als auch gesellschaftliche Vorteile zu fördern.

Das Wichtigste in Kürze

Verfolgt wird mit dem EU AI-Act ein risikobasierter Ansatz. Die Einstufung der KI-Systeme erfolgt danach, welches Risiko von ihnen ausgeht und welcher Regulierung sie demnach bedürfen. Somit müssen Anbieter:innen, Einführer:innen, Händler:innen und Betreiber:innen von KI-Systemen diverse Auflagen erfüllen.

Da es sich um die erste Regulierung dieser Art weltweit handelt, gilt es nach wie vor als anpassungsfähig. KI beschreibt ein weitläufiges Gebiet, welches sich konstant weiterentwickelt, weshalb Änderungen des Gesetzentwurfs in den nächsten Jahren erwartbar bleiben.

Die Risikogruppen des EU AI Acts im Detail 

Innerhalb des EU-AI Acts werden verschiedenen Risikogruppen benannt, für die verschiedene Regelungen gelten. Diese werden folgend aufgelistet. 

Abstufung der verschiedenen Risikogruppen: inakzeptables Risiko, hohes Risiko, begrenztes Risiko, minimales oder kein Risiko

Unannehmbares Risiko (verbotene KI-Praktiken)

Ein wichtiger Bestandteil des AI Acts ist Artikel 5. Nach diesem sollen bestimmte KI-Praktiken in der EU verboten werden. Die Verbote richten sich gegen die Praktiken, die europäische Werte verletzen und somit ein inakzeptables Risiko für betroffene Personen darstellen.

Zu diesen verbotenen KI- Systemen gehören:

  • Systeme für Social Scoring,
  • Systeme zur kognitiven Verhaltensmanipulation,
  • biometrische Echtzeit-Fernidentifizierungssysteme bei der Strafverfolgung in öffentlichen Räumen (mit Ausnahmen für die gezielte Suche nach potenziellen Opfern),
  • Systeme, die Gesichtsdatenbanken durch ungezieltes Auslesen von Bildern im Internet oder von Videoüberwachung erstellen,
  • Systeme zur Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen.

Hohes Risiko (Hochrisiko-KI-Systeme)

Die überwiegenden Aspekte des AI Acts beziehen sich auf sogenannte Hochrisiko-KI-Systeme, die die Gesundheit, Sicherheit oder Grundrechte gefährden, also ebenso mit den europäischen Werten nicht vereinbar sind. Diese Systeme wurden in zwei Kategorien unterteilt:

  1. Sicherheitskomponenten: Diese KI-Systeme sind Teil von Produkten, die einer Konformitätsbewertung unterliegen, wie z. B. medizinische Geräte und Fahrzeuge.

  1. Eigenständige KI-Systeme: Dazu gehören Systeme, die die Grundrechte betreffen, wie z. B. für kritische Infrastrukturen, Bildungsentscheidungen, Personalmanagement und Kreditwürdigkeitsprüfungen. Bestimmte Ausnahmen gelten, wenn das KI-System eine spezifische Verfahrensaufgabe durchführt.

Als Resultat dürfen Hochrisiko-KI-Systeme nur dann auf dem europäischen Markt angeboten werden, wenn sie bestimmte Anforderungen erfüllen und einer Konformitätsbewertung unterzogen werden. Anbieter:innen sind verpflichtet, ein Qualitäts- und Risikomanagementsystem einzurichten und eine technische Dokumentation zu vollziehen. Die Daten, welche verwendet wurden, müssen dann den Vorgaben der KI-Verordnung entsprechen.

Begrenztes Risiko (KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind)

Die Kategorie des begrenzten Risikos bezieht sich auf die Risiken, die mit dem Mangel an Transparenz bei der Nutzung von KI verbunden sind. Der AI Act führt spezifische Transparenzpflichten ein, um sicherzustellen, dass Menschen informiert werden, wenn es notwendig ist, und somit Vertrauen gefördert wird. Ein Beispiel hierfür ist die Interaktion von Menschen mit KI-Systemen wie Chatbots., So müssen sie darüber informiert werden, dass mit einer Maschine interagiert wird, damit sie transparent selbst eine Entscheidung treffen können, ob sie fortfahren oder sich zurückziehen möchten. 

Anbieter:innen müssen zudem sicherstellen, dass KI-generierte Inhalte eindeutig als solche identifizierbar sind. Darüber hinaus müssen KI-generierte Texte, die mit dem Ziel veröffentlicht werden, die Öffentlichkeit über Belange von allgemeinem Interesse zu informieren, als KI-basiert gekennzeichnet werden. Dies gilt ebenfalls für Audio- und Video-Inhalte,.

Minimales und kein Risiko ( KI-Systeme, die nicht in den Anwendungsbereich der KI-Verordnung fallen) 

Unter Minimalrisiko bzw. Anwendungen ohne Risiko versteht man bspw. Videospiele oder Spamfilter, die auf KI basieren. Darunter fällt der überwiegende Teil der Systeme innerhalb der EU. Diese gelten weiterhin als frei einsetzbar.

Transparenzverpflichtungen

Der AI Act setzt klare Transparenzverpflichtungen für bestimmte KI-Systeme, insbesondere solche, die mit natürlichen Personen interagieren. Diese Verpflichtungen betreffen insbesondere vier Arten von Systemen, die wir im Folgenden näher betrachten.

 1. Interaktionssysteme: Chats mit KI

Anbieter:innen von Interaktionssystemen, wie zum Beispiel Chatbots, müssen sicherstellen, dass die Nutzenden darüber informiert sind, dass sie mit einem KI-System kommunizieren. 

2. Synthetische Inhalte: Klarheit für Nutzende

Für Anbieter:innen von KI-Systemen, die synthetische Inhalte erzeugen, gelten ebenfalls strenge Vorgaben. Die erzeugten Ergebnisse müssen in einem maschinenlesbaren Format gekennzeichnet und als künstlich erkennbar gemacht werden. 

3. Emotionserkennungssysteme: Informierte Zustimmung

Betreibende von Emotionserkennungssystemen oder biometrischen Kategorisierungen haben die Verpflichtung, betroffene Personen über den Einsatz dieser Technologien zu informieren. Dies umfasst die Erklärungen darüber, wie die Systeme funktionieren und welche Daten erfasst werden. 

4. Deepfakes: Offenheit und Erkennung

Ein weiteres wichtiges Thema sind Deepfake-Systeme. Betreibende dieser Technologien müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. 

Wenn eines dieser Systeme als Hochrisiko-KI-System eingestuft wird, sind zusätzlich die Anforderungen für Hochrisiko-KI-Systeme zu erfüllen.

KI-Modelle mit allgemeinem Verwendungszweck

Ein zentrales und oft diskutiertes Thema im Rahmen des EU AI Acts betrifft die Regulierung von KI-Modellen mit allgemeinem Verwendungszweck. Diese Modelle, die dank ihrer breiten Anwendbarkeit in vielen unterschiedlichen Bereichen eingesetzt werden können, zeichnen sich durch ihre Fähigkeit aus, eine Vielzahl von Aufgaben effizient und kompetent zu erfüllen sowie nahtlos in verschiedene Systeme integriert zu werden.

Ursprünglich enthielt der Vorschlag für die KI-Verordnung keine spezifischen Regelungen für diese Art von Modellen. Das Europäische Parlament setzte sich jedoch für deren Aufnahme ein, was als Reaktion auf die zunehmende Verbreitung von leistungsstarken Modellen wie GPT-4, die in Anwendungen wie ChatGPT verwendet werden, interpretiert werden kann.

In der endgültigen Fassung des AI Acts müssen alle allgemeinen KI-Modelle bestimmten Anforderungen genügen. Besonders für eine Untergruppe dieser Modelle, die potenzielle systemische Risiken mit sich bringen, sind zusätzliche Anforderungen vorgesehen.

Klar ist, dass Anbieter:innen und Betreiber:innen von KI-Systemen geeignete Maßnahmen ergreifen müssen, um sicherzustellen, dass ihr Personal über ein angemessenes Maß an KI-Kompetenz verfügt. Die Nichteinhaltung dieser Vorschriften kann zu erheblichen Konsequenzen führen, inklusive potenzieller Bußgelder. 

Was sollten Unternehmen beim EU AI Act beachten? 

Das Parlament verabschiedete im März 2024 das Gesetz über KI, und der Rat folgte im Mai 2024 mit seiner Zustimmung. Während die Verordnung grundsätzlich erst ab dem 02. August 2026 in Kraft tritt, ist es wichtig zu berücksichtigen, dass einige Bestimmungen bereits früher Pflicht werden:

  1. Das Verbot von KI-Systemen, die inakzeptable Risiken darstellen, wird sechs Monate nach Inkrafttreten gelten - also ab Februar 2025.
  2. Verpflichtungen in Bezug auf KI-Modelle mit allgemeinem Verwendungszweck sind nach 12 Monaten zum August 2025 relevant.
  3. Verhaltenskodizes werden neun Monate nach Inkrafttreten gelten gemacht (Mai 2025).

Für Hochrisikosysteme hingegen sieht es anders aus: Diese Regelungen gelten erst in drei Jahren. Da es sich um eine Verordnung handelt, werden die darin enthaltenen Vorschriften in allen EU-Mitgliedstaaten unmittelbar anwendbar sein. Diese Verordnung somit zusätzlich in nationales Recht umzusetzen, ist somit nicht notwendig.

Next Steps für Unternehmen, die mit KI arbeiten

Auch für Unternehmen stehen mit dem EU-AI Act große Veränderungen bevor. Wichtig ist es daher, sich frühzeitig mit den Regelungen der KI-Verordnung zu befassen. Im Allgemeinen gilt, dass Unternehmen, die KI-Dienstleistungen anbieten, ihre KI-Produkte und -Dienstleistungen gemäß den Risiko-Kategorien einordnen müssen. Wichtig ist festzustellen, ob sie als "High-risk" eingestuft werden und somit zeitnah handeln müssen.

Für Anbieter:innen von Hochrisiko-KI-Systemen gilt:

  • Umfangreiche Governance-Strukturen und Dokumentation etablieren,
  • KI-Systeme anpassen, z. B. Protokollierung und Integration eines sog. Stopp-Buttons,
  • Nach Anpassung eine Konformitätsbewertung durchführen.

Auch Unternehmen, die sich nicht in der Hochrisiko-Kategorie verordnen, müssen entsprechende Maßnahmen ergreifen. 

  • Transparenzmaßnahmen entwickeln, die sicherstellen, dass Endnutzer:innen ausreichend informiert sind und Einfluss auf die Nutzung der KI haben
  • Implementierung eines Qualitätssicherungsprozesses
  • Überprüfung der Datenschutzmaßnahmen und Implementierung robuster Sicherheitsprotokolle
  • Entwicklung und Durchführung interner Schulungsprogramme und die Anpassung der Entwicklungsprozesse an die neuen regulatorischen Anforderungen.

Des Weiteren müssen Unternehmen eine Bestandsaufnahme der genutzten KI-Systeme vornehmen, unabhängig davon, ob sie KI nur intern nutzen oder vermarkten. Sie müssen ihre eigene Rolle und Verpflichtungen im Zusammenhang mit externen KI-Systemen bewerten. Je früher mit der Umsetzung begonnen wird, desto besser. So lassen sich Herausforderungen bei der Einhaltung der Anforderungen vorbeugen. Die Mitarbeitenden müssen aufgeklärt und mit dem EU-AI Act vertraut gemacht werden, sodass die EInhaltung der Sicherheits- und Datenschutzverordnung gewährleistet ist.  Es bietet sich an Mechanismen zur menschlichen Kontrolle und regelmäßige Überprüfung der Ergebnisse von KI-Entscheidungen zu implementieren, um Diskriminierung oder Fehlentscheidungen zu vermeiden.

leuchtende Taschenlampe

Wichtig ist, die Regulierung nicht per se negativ zu  betrachten. Ähnlich wir zur EU-Datenschutz-Grundverordnung (DSGVO)  wird ausreichend Zeit für die Umsetzung und das Testen von Anwendungen eingeräumt. Ziel ist es, langfristig das Arbeiten mit KI-Systemen zu erleichtern und das Vertrauen in solche Systeme zu stärken. Der EU-AI Act stellt eine erste Grundlage dar, Vertrauen aufzubauen und gilt somit auch als Chance, das Ansehen und die zukünftigen Potentiale der Technologie in  KI-Systemen zu optimieren. Zudem möchte die EU durch Testlabore, die von nationalen Behörden eingerichtet werden, Innovationen fördern, um KI zu entwickeln und zu trainieren, bevor sie auf den Markt kommt.

Den ersten Teil zum EU-AI-Act findet ihr hier.

Vollständigen Artikel lesen?
Danke! Deine Nachricht ist bei uns angekommen! 

Neuste Beiträge

Company

EU AI Act: Was für Unternehmen jetzt wichtig ist

Der EU-AI-Act ist in Kraft getreten. Konkret bedeutet das viele Änderungen für Firmen, die im Bereich KI tätig sind oder mit KI arbeiten. Welche Anpassungen sind bis wann notwendig? Alle relevanten Informationen für Unternehmen rundum den EU-AI-Act.

mehr lesen...
Company

Von Papierstapeln zu digitalen Workflows: Die Transformation der Rechnungsverarbeitung

Digitale Rechnungsverarbeitung nutzt KI, um Rechnungen effizient zu erfassen, Daten automatisch zu extrahieren und in Systeme zu übertragen. Doch was sind die Vorteile und wieso sollte man digitale Rechnungsverarbeitung nutzen?

mehr lesen...
Tech
Company

Wissen macht erfolgreich: Wie Unternehmen von einer strukturierten Wissensbasis profitieren

Wissen ist eine der wichtigsten Ressourcen, um als Unternehmen langfristig erfolgreich zu sein. Wissensmanagement hilft, Ziele zu erreichen und die gewünschten Ergebnisse zu erlangen. Im Blog schauen wir uns an, wie Unternehmen von einer strukturierten Wissensbasis profitieren.

mehr lesen...