KI ist im Marketing seit der Einführung von OpenAI bzw. ChatGPT nicht mehr wegzudenken. Angesichts der rasanten Fortschritte in der KI-Technologie hat, gilt es Regeln aufzusetzen. Um die Nutzung von künstlicher Intelligenz sicherzustellen und zu regulieren, wird aktuell an einem Gesetz – dem „EU AI Act“ gearbeitet.
Was sind Foundation Models?
Foundation Models sind KI-Modelle, die als grundlegende Bausteine für eine Vielzahl von Anwendungen und Aufgaben dienen. Diese KI-Modelle werden mit umfangreichen Datensätzen trainiert und entwickelt. Der Bereich des Natural Language Processing, wo sie menschliche Sprache verarbeiten und generieren, ist hier der Hauptbereich. Sie verfügen über eine Vielzahl an Fähigkeiten. Die Einsatzmöglichkeiten von Foundation Models sind sehr umfangreich, darunter zählen maschinelles Übersetzen, Textgenerierung und Chatbots. Das ist nur eine kleine Auflistung der Möglichkeiten. Dank ihres kontextsensitiven Verständnisses sind sie auch in der Lage, große unstrukturierte Daten zu analysieren, zu bearbeiten und zu verstehen.
Die beeindruckende Leistungsfähigkeit und vielseitige Anwendbarkeit gewisser Foundation Models wie BERT & GPT bieten erhebliches Potenzial in verschiedenen Branchen und ermöglichen erhebliche Effizienzgewinne.
Foundation Models sind aber dennoch nicht perfekt. Sie sind auf umfangreiche Trainingsdaten angewiesen, um effektiv zu funktionieren, was jedoch das Risiko von Verzerrungen und Vorurteilen in den generierten Inhalten mit sich bringt. Daher ist es von großer Bedeutung, ethische Aspekte und verwendeten Datensätze bei der Verwendung solcher KI-Modelle zu berücksichtigen.
Welche Ziele verfolgt der EU AI Act?
Dieser Gesetzesentwurf der EU verfolgt die Ziele, Künstliche Intelligenz (KI) sicherer und transparenter zu gestalten. In diesem Zusammenhang sollen KI-Systeme zur Abwehr fragwürdiger, irreführender oder bedenklicher Inhalte zu entwickelt werden. Neben Datenschutz sind auch Punkte wie Vorhersehbarkeit und auch die Interpretierbarkeit einige Themen an denen gearbeitet werden soll.
Die Offenlegung über die Funktionsweise von Foundations Models wird in Zukunft zur Pflicht. Dies steht teilweise im Widerspruch zur Grundidee, anstelle der zugrundeliegenden Technologie zu konzentrieren.
KI-Systeme werden laut dem EU AI Act in verschiedene Risikostufen unterteilt, um adäquate Vorschriften zu gewährleisten. Geringes Risiko bedeutet geringere Regulierung, während Anwendungen wie Sozialkreditsysteme vollständig untersagt sind. Strengere Auflagen treten in Kraft, wenn KI-Systeme zur medizinischen Diagnose verwendet werden.
Regulierungen
Der EU AI Act definiert vier Hochrisikoanwendungen und legt für jede von ihnen unterschiedliche Regulierungsstufen fest:
- Biometrische Identifikationssysteme: Im Umgang mit biometrischen Daten ist es wichtig, Missbrauch oder Diskriminierung auszuschließen.
- Kritische Infrastrukturen: Energie, Verkehr oder Gesundheitswesen sollen aufgrund möglicher Fehlfunktionen besser kontrolliert werden.
- Bildung: Im Bildungsbereich muss bei den KI-Systemen sichergestellt werden, dass sie nicht unpassend oder diskriminierend sind.
- Gesundheitsversorgung: Im Gesundheitswesen, wie etwa Verarbeitung von Diagnosen, Telemedizin und medizinischer Daten, müssen KI-Systeme in Bezug auf Datenschutz besser kontrolliert werden.
Was genau haben Foundation Models mit dem EU AU Act zu tun?
Der EU AI Act muss angemessen bearbeitet werden, um eine gesetzliche Grundlage zu schaffen, der das Potenzial leistungsstarker KI-Modelle nicht begrenzt. Das Hauptziel besteht darin, ein gesundes Verhältnis für KI-Anbieter in Europa aufrechtzuerhalten und sicherzustellen, dass europäische Anbieter im globalen Wettbewerb nicht benachteiligt werden.
Dennoch gibt es weitere Gründe, warum die EU den EU AI Act vorantreibt:
Transparenz
Der EU AI Act betont die Notwendigkeit von Transparenz bei der Nutzung von KI-Systemen. ChatGPT oder verschiedene GPT-Versionen sind Black-Box-Ansätze, bei denen es für den Benutzer schwer oder sogar unmöglich ist, Funktionsweise dieser KI zu verstehen.
Datensicherheit und Datenschutz
Foundation Models erfordern umfangreiche Trainingsdaten, für eine effektive Arbeit. Der Schutz von persönlichen Daten und zur Datensicherheit wird vom EU AI Act strenger reguliert. Das Training und die Verarbeitung von Daten sollen reguliert werden, um einen hohen Datenschutz sicherzustellen.
Diskriminierung
Auf Vorurteile soll in den Trainingsdaten von Foundation Models besonders geachtet werden. Der EU AI Act zielt darauf ab, diese Modelle vorurteilslos und frei von diskriminierenden Ergebnisse in Bezug auf das Geschlecht, die Religion, der Rasse oder ethnischer Zugehörigkeit zu machen.
Konformität und Zertifizierung
Der EU AI Act plant die Einführung angemessener Prüfungen und Vorgaben für KI-Modelle zur Sicherstellung der Konformität.
Verantwortlichkeiten
KI-Anbieter werden Verpflichtungen gegenüber der Rechtsprechung haben und angemessen für Schäden haften. Die Haftung von Foundation Models ist jedoch aufgrund ihrer Abhängigkeit von umfangreichen Trainingsdaten und anderen Faktoren besonders komplex.
Herausgeber von KI-Modellen werden dazu verpflichtet, bestimmte Eigenschaften ihrer KI-Modelle offenzulegen. Anomalien müssen identifiziert und Maßnahmen ergriffen werden. Gleichzeitig sollen Informationen über in den KI-Modellen verwendeten Daten transparent gemacht. Es ist jedoch wichtig, dass die Regulierung von Foundation Models nicht die Innovationskraft einschränkt. Damit keine Probleme entstehen, ist es empfehlenswert den EU AI Act bei der Planung von KI-Anwendungen in Betracht zu ziehen.
Wie wirkt sich der auf B2B aus?
Der EU AI Act hat das grundlegende Ziel, die Nutzung von KI-Technologien zu justieren, um sicherzustellen, dass sie ethischen und rechtlichen Standards entsprechen. Dies bedeutet, dass „hochriskante“ KI-Anwendungen strengeren Vorschriften unterliegen werden.
Der EU AI Act wird voraussichtlich auch Auswirkungen auf Systeme, die Empfehlungen aussprechen und automatisierte Entscheidungsprozesse haben. Es ist auch zu erwarten, dass es eine Kennzeichnungspflicht für automatisch erstellte Inhalte geben wird.
Weitere Problematiken im Rahmen des EU AI Act werden wahrscheinlich die Änderungen der Datenschutzmaßnahmen, die Gewährleistung von Nachvollziehbarkeit und Transparenz von Algorithmen einer KI. Ebenso ist es relevant zu erwähnen, dass interne Richtlinien und Verfahren zur Überprüfung von KI-Tools sollten von Unternehmen entsprechend angepasst werden.
Ein Beispiel für die Auswirkungen des EU AI Acts ist die Entscheidung von Samsung und Apple, ihren Mitarbeitern die Nutzung von ChatGPT aus Gründen des Datenschutzes zu verbieten, nachdem wegen eines Datenlecks sensible Programmcode-Informationen das Unternehmen verlassen hatten. Die Frage bleibt jedoch offen, inwieweit Transformer-Modelle nach Verabschiedung des uneingeschränkt verwendbar sein werden. Sehr wahrscheinlich werden solche KI-Modelle in der Zukunft vor der Herausforderung stehen, einen direkten Zugriff auf das Foundation Model zu gewährleisten, wodurch eine Verschlüsselung nicht mehr möglich ist. Trotz dieser Herausforderungen bietet der EU AI Act B2B-Unternehmen die Gelegenheit, durch den Schutz von personenbezogenen Daten und Privatsphäre das Vertrauen ihrer Kunden zu stärken.
B2B-Unternehmen werden dazu geraten, bei der Auswahl von SaaS-Diensten Sorgfalt an den Tag zu bringen. Es ist wichtig zu wissen, wo sich die Server und Rechenzentren befinden und wie dies mit dem eigenen Unternehmenssitz, ihrer internationalen Präsenz und den relevanten Datenschutzbestimmungen korreliert.
Wann können wir mit dem EU AI Act rechnen?
Die ursprüngliche Vorstellung des EU AI Act der Europäische Kommission war im April 2021, um die Vorschriften für KI in allen EU-Mitgliedstaaten zu harmonisieren. Aktuell haben die relevanten Ausschüsse eine gemeinsame Position erreicht, was dazu führt, dass der Gesetzesentwurf nun in die Trilog-Phase eintritt. In dieser Phase wird der Entwurf von der EU-Kommission, dem Rat und dem Parlament endgültig verhandelt. Da dies eine Verordnung ist, wird der EU AI Act nach seiner endgültigen Verabschiedung in jedem der EU-Mitgliedstaaten in Kraft treten.
Der Rat der Europäischen Union hat im Dezember 2022 eine überarbeitete Version des EU AI Acts genehmigt, die dem anfänglichen Vorschlag der Europäischen Kommission vom April 2021 entspricht.
Im Januar 2023 wurde mit der Arbeit an allgemeinen KI-Standards begonnen, die sich weitgehend an den Vorgaben der internationalen Organisation für Normung (ISO) orientieren. Der EU AI Act wird voraussichtlich Ende 2023 oder Anfang 2024 in Kraft treten, und es werden Übergangsfristen gewährt. Das Ziel ist es, in der gesamten Union eine verantwortungsvolle Nutzung von Künstlicher Intelligenz zu verantworten. Der Akt wird klare Regeln und Leitfaden bieten, um das volle Potenzial von KI zu gewährleisten, ohne dabei die Grundrechte und den Datenschutz zu gefährden.
Fazit
Der EU AI Act markiert einen bedeutsamen Schritt in der Agitation von KI im EU-Raum. Im europäischen KI-Ökosystem gibt es den Wunsch, dass eine übermäßige Regulierung vermieden wird und die gesetzlichen Rahmenbedingungen so gestaltet, dass sie Entwicklung und Effizienzsteigerung fördern, während gleichzeitig bestimmte Herausforderungen und Risiken adressiert werden.
Diese neuen Vorschriften werden Auswirkungen auf B2B-Unternehmen haben. KI-Technologien und -Strategien sollten dementsprechend den neuen Vorschriften entsprechen. Daher ist es auch von großer Bedeutung, den weiteren Verlauf des EU AI Acts aufmerksam zu verfolgen und mit Experten im Bereich KI-Regulierung zusammenzuarbeiten. Dies gewährleistet, dass Unternehmen weiterhin innovative und ethisch verantwortungsvolle KI-Lösungen entwickeln können.