Was ein Amtsbot können darf
25. August 2020
Wir sind gerade erst dabei, uns an die Konversation mit Maschinen zu gewöhnen. Bevor sie wesentliche Aufgaben in der Verwaltung übernehmen, müssen sie aber noch einiges lernen. Kommentar von Katharina Schell (APA)
Wie darf ich helfen?
„Mia“ ist eine freundliche Person. Sie chattet im Auftrag eines großen Telekommunikations- Konzerns mit dessen Kunden. Ein bisschen neugierig ist sie und fragt nach der Kundennummer. Die reicht sie bereitwillig an „meine menschlichen Kollegen“ weiter. Denn „Mia“ ist keine Person, sondern ein – freundlicher – Bot. Nicht nur innovative Unternehmen bedienen sich virtueller Mitarbeiter:innen für die Beantwortung von Anfragen. Beispiele für den Einsatz von Chatbots wie „Mia“ gibt es auch bereits in der österreichischen Verwaltung. Für das Bundesministerium für Digitalisierung und Wirtschaftsstandort chattet „Mona“ seit Kurzem am Unternehmensserviceportal mit Wirtschaftstreibenden, die Corona-Hilfen in Anspruch nehmen möchten.
Fred hat viel Geduld
Schon länger im Amt ist „Fred“, ein Bot des Bundesministeriums für Finanzen. Er gibt auf dem Portal FinanzOnline Auskunft zu Themen wie Arbeitnehmer:innen-Veranlagung, Familienbonus oder Handy-Signatur. „Mona“ und „Fred“ kümmern sich mit der sprichwörtlichen endlosen Geduld um Fragen, die häufig leicht zu beantworten sind, aber immer wieder gestellt werden. Für Themen, auf die sie nicht speziell „geschult“ wurden, haben aber auch Chatbots wie „Mia“, „Mona“ und „Fred“ schnell keine Antwort parat und müssen an ihre realen Kolleginnen und Kollegen verweisen. „Mia“, „Mona“ und „Fred“ sind dabei nur ein Anfang. Was aber werden ihre Nachkommen künftig wissen wollen? Es ist absehbar, dass Künstliche Intelligenzen auch in der Verwaltung Jobs übernehmen werden. Werden wir bald Amts-Bots unsere Sozialversicherungsnummer, Gehaltsinformationen oder Meldedaten verraten? Und: Wie wird es uns damit gehen?
Vertrauen lernen
Die Diskussion über Künstliche Intelligenz (KI) polarisiert, sie schwankt zwischen der Faszination für das Neue und Unbehagen. Geht es um den Einsatz von Künstlicher Intelligenz in der öffentlichen Verwaltung, mag Zweiteres überwiegen. Wollen wir in diesem zentralen Sektor wirklich Maschinen vertrauen? Schnell landet man bei der Suche nach Antworten inmitten einer Ethik-Debatte. Manchmal etwas vorschnell. Nicht alles, auf dem KI steht, ist sonderlich intelligent. Es gilt zu unterscheiden zwischen Automatisierungsstrategien beziehungsweise Assistenzsystemen einerseits, die oft auf die Erleichterung von Workflows abzielen, und selbstständigen Systemen, die Entscheidungsprozesse beeinflussen oder gar übernehmen, andererseits. Der Grad der Autonomie einer KI-Lösung ist ein Indikator für die Dringlichkeit, sich über die Ethik den Kopf zu zerbrechen. Für eine sinnvolle Umsetzung von KI-Strategien ist das Vertrauen der Bürger:innen in die „Maschinen“ essenziell. Künstlichen Intelligenzen zu vertrauen müssen wir noch lernen. Zentral dafür: dass sie auf Basis von Werten operieren, die den Menschen in den Mittelpunkt stellen.
Transparenz und Verantwortung
Das ist indes leichter dahingeschrieben als umgesetzt. Ein Algorithmus darf nicht „unfair“ agieren und entscheiden, das ist Konsens. Und doch „passiert“ auch noch so avancierten Systemen eine Bias – eine maschinelle Voreingenommenheit. Der Erklärung liegt auf der Hand: Geschaffen wird die Künstliche Intelligenz vom Menschen; gefüttert im Fall von Machine Learning mit Daten. Bildet sich darin eine Bias ab, kann die Künstliche Intelligenz gar nicht anders, als sie zu reproduzieren. Das Hinterfragen der mitunter nur vermeintlich objektiven Herangehensweise bei der Entwicklung von KI-Lösungen ist daher unabdingbar. Ebenso wie Transparenz und klare Verantwortlichkeiten. Zu jedem Zeitpunkt sollte es nachvollziehbar sein, warum eine virtuelle Instanz welche Entscheidung getroffen hat. Und wenn Fehler passieren – ja, auch Maschinen machen Fehler, wenn auch meisten der Mensch daran schuld ist – muss klar sein, wer die Verantwortung trägt.