Irren ist menschlich – deshalb weiß es auch die KI nicht besser
Wer ist nun für eine Ethik der Algorithmen in der Pflicht beziehungsweise verantwortlich: Ist es der Developer, der den Algorithmus programmiert und ein Vorurteil in den Code bereits einbettet? Sind es die Algorithmen selbst, die diese Entscheidungen fällen? Im Bereich des Natural Language Processing müssen wir etwa erstaunt feststellen, wie GPT-3-Algorithmen zu eigenständigen Resultaten kommen und beispielsweise gut klingende Artikel produzieren.
Julia Gundlach, Projektmanagerin von Algorithmenethik, einem Projekt der Bertelsmann Stiftung, kommentiert: „Mit der Verantwortung für die ethische Ausgestaltung algorithmischer Systeme verhält es sich ähnlich wie bei einem Orchester: Jede Musikerin und jeder Musiker ist mit dafür verantwortlich, wie die Musik klingt und wenn etwas schief klingt, kann man nicht den Instrumenten die Schuld geben. Auch in der Welt der Algorithmen sind es immer Menschen, die entscheiden – das gilt auch beim Machine Learning.“ Timo Daum, Autor von „Die Künstliche Intelligenz des Kapitals“, sieht das noch differenzierter: „Sind die Programmier:innen wirklich diejenigen, die den Überblick über die Mechanismen und Ziele der Algorithmen haben, an denen sie arbeiten, und gleichzeitig auch noch die Macht und den Einfluss besitzen, um diskriminierenden Code oder einseitige Datensätze zu erkennen und zu verändern? Wohl kaum. Aber auch die Vorstellung, algorithmischer Bias würde durch männliche Programmier-Nerds unbewusst in deren Code einfließen, überschätzt wohl die Spielräume derjenigen, deren Aufgabe es schließlich ist, die Business-Logik ihrer Auftraggeber nach strengen Regeln in ausführbaren Programmcode umzusetzen.
Handreichungen und Leitfäden für eine ethische Praxis
Dem Einhalt gebieten können nur wir alle zusammen – mit vielen Verantwortlichkeiten. Julia Gundlach von „Ethik der Algorithmen“ der Bertelsmann Stiftung fordert, dass die Verantwortung über die ethische Gestaltung von Algorithmen ein zentraler Bestandteil der Unternehmenskultur und der Zusammenarbeit zwischen Organisationen sein muss. „Wie diese Verantwortung in einer Behörde oder einem Unternehmen konkret verteilt ist, gilt es frühzeitig zu erörtern und eindeutig festzulegen“, sagt Gundlach. Dafür hat die Bertelsmann Stiftung zusammen mit dem iRights.Lab mit rund 500 Beteiligten die so genannten Algo.Rules zur ethischen Gestaltung algorithmischer Systeme erarbeitet. Dabei wurden allein elf verschiedene Rollenprofile in der öffentlichen Verwaltung identifiziert, die bei der Gestaltung algorithmischer Systeme mitwirken und dadurch auch Verantwortung übernehmen. „Das macht die Notwendigkeit einer eindeutigen Zuweisung von Verantwortung besonders deutlich“, erklärt sie. Anhand der Algo.Rules entstanden außerdem eine Handreichung für die digitale Verwaltung sowie ein Umsetzungsleitfaden für Führungskräfte und Entwickler:innen, um ethische Grundsätze in die Praxis zu überführen. „Im besten Fall ziehen Unternehmen solche Leitfragen als Basis für eine eigene Erarbeitung passender Prinzipien und konkreter Operationalisierungsschritte heran, da die unternehmerischen Bedarfe und Voraussetzungen jeweils unterschiedlich sind. Dabei braucht es das Engagement aller Beteiligten, damit diese Veränderungen nicht nur festgelegt, sondern auch umgesetzt werden“, wünscht sich Julia Gundlach.