Für uns als Nutzer*innen sind die Entscheidungen und die zugrundeliegenden Wertvorstellungen von sprachbasierten KIs nicht nachvollziehbar. Transparenz herzustellen, erscheint unmöglich, da die zugrundeliegenden Algorithmen eine ›Black Box‹ sind. Zwar gibt es Modelle künstlicher Intelligenz, die sich vermeintlich selbst erklären – sogenannte Explainable AI, allerdings ist auch dieser Ansatz wackelig. Denn ob die Erklärung, die eine KI ausspuckt, den Tatsachen entspricht oder ob sie so programmiert ist, dass eine Antwort lediglich plausibel klingt und vermeintliche Transparenz simuliert, lässt sich erneut nicht ermitteln – solche ›Erklärungen‹ folgen immer der Entscheidung nach, sind also keine echte Transparenz. Hier setzt Spieckers Forschung an. »Da, wo wir nicht mehr imstande sind zu kontrollieren, was genau passiert, brauchen wir Regulierung«, sagt die Rechtswissenschaftlerin, die Mitglied im Exzellenzcluster ECONtribute ist.
Im Exzellenzcluster forschen Wissenschaftler*innen gemeinsam zu Märkten im Spannungsfeld zwischen Wirtschaft, Politik und Gesellschaft. Seit generative und sprachbasierte Modelle immer mehr in unseren Alltag einziehen, herrscht um Künstliche Intelligenz eine enorme Dynamik. Da sei es schwer, den Überblick zu bewahren, mögliche Entwicklungen vorherzusehen und ihre Folgen abzuschätzen. Das mache es für uns als Gesellschaft schwer zu entscheiden, was wir eigentlich möchten und zulassen können – ein Szenario, das für die Forschenden von ECONtribute wie geschaffen ist: Sie beraten dazu, wie die Politik ihre Möglichkeiten nutzen kann, um zu effizienten und gesellschaftlich akzeptierten Marktentwicklungen beizutragen. »Regulierung hilft dabei, den Blick zu schärfen und einzuordnen, wohin sich eine Technik eigentlich entwickelt«, so Spiecker.
Gute Regeln, kaum einlösbar
Laut Statistischem Bundesamt nutzt mittlerweile jedes zweite große Unternehmen in Deutschland KI. Bei mittleren Unternehmen mit 50 bis 249 Beschäftigten ist es immer noch mehr als ein Viertel. Dabei schwanken die Erwartungen irgendwo zwischen Heilsversprechen und Dystopie. So schreibt etwa das Europäische Parlament, dass der Wohlstand und das wirtschaftliche Wachstum Europas maßgeblich davon abhängen, wie die neuen Technologien genutzt werden. Künstliche Intelligenz habe »das Potenzial, unser Leben grundlegend zu verändern – sowohl zum Positiven als auch zum Negativen«.
Spiecker hat gemeinsam mit der Philosophin Judith Simon und der Informatikerin Ulrike von Luxburg ein Diskussionspapier zu den gesellschaftlichen und ethischen Herausforderungen durch generative KI für die Nationale Akademie der Wissenschaften Leopoldina verfasst. Die Leopoldina berät Politik und Gesellschaft unabhängig zu wichtigen Zukunftsthemen. In diesem Papier setzen sich Spiecker und ihre Kolleginnen auch kritisch mit dem European Artificial Intelligence Act (EU AI Act) auseinander – dem weltweit ersten Gesetz zum Einsatz von Künstlicher Intelligenz.
Die Verordnung wurde von allen EU-Mitgliedsstaaten verabschiedet und ist am 1. August 2024 in Kraft getreten. Sie sieht unter anderem bestimmte Transparenzanforderungen und Dokumentationsverpflichtungen vor. Der AI Act zielt darauf ab, einen einheitlichen Rechtsrahmen in der EU zu schaffen und klassifiziert KI-Anwendungen in verschiedene Risikokategorien: von minimalem bis hin zu hohem Risiko. Bei besonders problematischen Einsatzgebieten gibt es Verbote. Einen Riegel schiebt die EU etwa dem Social Scoring vor. Dabei werden Daten von Personen gesammelt und von Künstlicher Intelligenz ausgewertet, um wie in einem Punktesystem erwünschtes Verhalten zu belohnen oder unerwünschtes Verhalten zu sanktionieren. Aus dem so erzielten Wert bemisst sich entsprechend der Zugang zu Infrastruktur und Ressourcen, etwa bei der Zuteilung von Studien- oder Kindergartenplätzen, der Genehmigung von Ein- und Ausreisen oder auf wirtschaftlicher Ebene bei der Vergabe von Krediten.