Der BRZ AI Hub
Das BRZ hat eine Umgebung geschaffen, die auf die Entwicklung von AI-Applikationen zugeschnitten ist: Der BRZ AI Hub stellt dynamisch Ressourcen zur Verfügung und ermöglicht den Wissenstransfer zwischen ähnlichen Projekten.
05. September 2023
Künstliche Intelligenz verspricht sehr großen Nutzen, birgt jedoch auch Risiken für die Gesellschaft, Organisationen und Individuen.
Um den größtmöglichen Nutzen von Künstliche Intelligenz (KI) zu erzielen, ohne Menschen dabei wissentlich oder unwissentlich zu schaden, drängt sich die Frage nach Konzepten der KI-Ethik sowie verbindlichen Regeln zur Nutzung und Entwicklung von KI auf. Aus diesem Grund versucht die Europäische Union seit 2018 eine KI-Verordnung zu erstellen. Diese Verordnung hat jedenfalls wegweisenden Charakter, da sie vorrausichtlich weltweit die erste verbindliche Verordnung mit diesem Umfang sein wird.
Die Chancen der KI liegen auf der Hand: Vereinfachung der Nutzung von Technologie, Automatisierung, Effizienz und Sicherheit sind nur einige der Themen, welche sich stark durch KI verändert haben und auch weiter verändern werden. Speziell seit der Veröffentlichung von ChatGPT ist ein regelrechter Hype um Künstliche Intelligenz entstanden. ChatGPT zeigt jedoch auch die Schwächen von KI-Systemen auf. Stellt man ChatGPT z. B. Fragen zu verschiedenen Themen, so kommt es immer wieder vor, dass die KI „halluziniert“ und plausibel klingende Antworten mit grundlegend falschem Inhalt generiert werden. Konkrete Risiken bei der Nutzung von KI-Modellen sind vor allem unerkannter Bias, nicht nachvollziehbare Entscheidungen sowie mangelnde Transparenz des Modells und der Trainingsdaten.
Um den genannten Risiken zu entgegnen hat die EU 2018 eine High-Level Expert Group, also eine Gruppe von Expertinnen und Experten zum Thema KI, damit beauftragt, ethische Richtlinien zur KI-Entwicklung und Nutzung zu erstellen. Von dieser Gruppe wurden in den folgenden Jahren mehrere Publikationen veröffentlicht. Auf Basis der in diesen Publikationen erarbeiteten Konzepte wurde im April 2021 die erste Version des AI Acts von der Europäischen Kommission vorgestellt. Im Zentrum des AI Acts stehen sieben Kernforderungen, welche von der HLEG veröffentlicht wurden:
Verordnungen im Umfang des AI Acts sorgen selbstverständlich für Diskussionsbedarf. Eine der großen Fragen war dabei die Definition von KI. Wie sollte KI definiert werden, damit die Verordnung vollumfänglich Systeme mit intelligenten Eigenschaften abdeckt, ohne dabei überbordend zu sein? Letztendlich hat sich dabei eine Variante der OECD-Definition von KI durchgesetzt:
Ein 'System der künstlichen Intelligenz' (KI-System) ist ein System, das so konzipiert ist, dass es mit unterschiedlichen Autonomiegraden arbeitet und das zu expliziten oder impliziten Zwecken Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen.
Gerade der Bezug zur OECD ist dabei spannend, da die Wirkung des EU AI Acts aufgrund der Größe des europäischen Binnenmarktes auch über die Grenzen der EU hinaus spürbar sein wird.
Die zentrale Strategie der EU-KI-Regulierung ist die Bewertung von Anwendungen nach ihrem Risiko. Je nach Risikoklasse gelten unterschiedliche Anforderungen an die Systeme. Konkret gibt es drei hierarchisch angeordnete Risikoklassen:
Diese Gruppe enthält Systeme, von denen ein so konkretes Risiko für Menschenrechte, Sicherheit und/oder Wohlbefinden ausgeht, dass das Inverkehrbringen grundlegend verboten sein wird. Beispiele für solche Systeme sind Social Scores, Systeme, die den Zugang zu lebenswichtigen Leistungen einschränken sowie die Überwachung von Menschenmassen oder Individuen ohne deren Zustimmung.
In der Hochrisiko Klasse finden sich Systeme wieder, welche zwar konkrete Risiken bergen, jedoch prinzipiell nicht verboten sein sollen. Die Klassifizierung erfolgt anhand konkreter Kriterien wie Art der Anwendung, Verarbeitung personenbezogener Daten, Auswirkungen auf Sicherheit und Grundrechte sowie Transparenz und Kontrollierbarkeit. Außerdem gibt es eine Liste von Hochrisiko-Systemen im Anhang III der Verordnung, welche jederzeit durch die EU-Kommission erweitert werden kann und keinen weiteren Parlamentsbeschluss benötigt. Für Hochrisiko-Systeme gelten strenge Auflagen, welche in einem Konformitätsbewertungsverfahren dokumentiert werden müssen.
In diese Risikoklasse fallen Systeme, welche die folgenden Kriterien erfüllen:
Beispiele für solche Systeme sind Chatbots im Kundensupport, Klassifikation von Bildern zum Sortieren (z. B. enthält Autos, Häuser, ...) sowie Spracherkennungssoftware zum Diktieren.
Während der Entstehung des EU AI Acts gewannen generative künstliche Intelligenzen stark an Popularität. Dabei handelt es sich um KIs, welche z. B. Bilder, Texte oder Musik generieren. Um dieser Klasse von KIs gerecht zu werden, wurden Transparenzauflagen, speziell in Hinblick auf die Trainingsdaten, eingeführt.
Derzeit befindet sich die Verordnung im Trilog. Dabei werden Verhandlungen zwischen Rat, Kommission und Parlament geführt. Die nationale Gültigkeit der Verordnung wird mit dem Jahr 2026 erwartet.
Für Entwickler:innen gibt es bereits jetzt die Möglichkeit, die KI-Anwendungen auf Konformität zu prüfen. Dafür wurde von der University of Oxford ein Tool entwickelt, das inhaltlich mit den Maßnahmen des EU AI Acts übereinstimmt: capAI