GPO 2024

Die variable Geometrie der KI-Regulierung

Globale Spannungen, wichtige Wahlen und der Ruf nach einer Kontrolle der mächtigen Industrieakteure werden die KI-Governance im Jahr 2024 prägen. Roxana Radu plädiert dafür, ein gemeinsames Vokabular zu finden, nicht-digitales Wissen zu schützen und die Stimme der Wissenschaft zu stärken.

Geneva Policy Outlook
5. Februar 2024
5 Minuten lesen
Foto von Robs / Unsplash

Roxana Radu

Der aktuelle Stand der Dinge 

Die Entwicklung der künstlichen Intelligenz (KI) reicht bis in die 1950er Jahre zurück, doch noch nie war sie so weit verbreitet wie heute. Während sich die Durchbrüche in der Vergangenheit auf „schwache“ (oder eingeschränkte) Intelligenz-Modelle (Narrow Intelligence) beschränkten, sehen wir heute multimodale KIs, die zahlreiche Quellen/Eingaben zur Verbesserung einer Allzwecktechnologie nutzen. So wurde zum Beispiel das auf neuronalen Netzwerken und Mustererkennnung basierende Deep Learning (mehrschichtiges maschinelles Lernen) zunehmend erfolgreicher, als 2017 die Transformer-Architektur in die Verarbeitung natürlicher Sprache eingebunden wurde, wodurch große Sprachmodelle sehr schnell weiterentwickelt werden konnten. Generative KI-Werkzeuge, wie der im November 2022 von OpenAI auf den Markt gebrachte Chatroboter ChatGPT, werden im privaten und öffentlichen Bereich immer häufiger eingesetzt. 

Angesichts der wachsenden geopolitischen Spaltung entwickelt sich die KI in einer Ära der Unsicherheit.

Heute handelt es sich bei KI noch nicht um eine allgemeine künstliche Intelligenz, das heißt, Maschinen verfügen nicht über eine eigene Form von „Superintelligenz“. Als Allzwecktechnologie wird KI jedoch für eine Vielzahl an Aufgaben herangezogen, angefangen bei industriellen Anwendungen bis hin zu großen Sprachmodellen, mit denen neue Texte, Bilder oder Videos generiert werden. Die rasche Weiterentwicklung im Bereich des maschinellen Lernens in den letzten fünf Jahren zeigt das große Potential dieser leistungsstarken Technologie, die aber auch katastrophale Folgen haben kann. Die Zukunft der KI wird auf Modellen beruhen, die nahtlos von der Gesichts- zur Gefühlserkennung übergehen und dabei mehr Datensysteme einbeziehen als je zuvor. Diese Fortschritte kommen meist aus privaten Forschungslaboren, die im Allgemeinen von Gatekeeper-Firmen wie Microsoft, Google oder Meta im Silicon Valley oder Alibaba, Baidu oder Tencent in China finanziert werden. Im vergangenen Jahrzehnt haben diese Firmen hohe Summen sowohl in die Datensammlung als auch in die Rechenleistung investiert. 

Angesichts der wachsenden geopolitischen Spaltung entwickelt sich die KI in einer Ära der Unsicherheit. 2024 wird ein Rekordjahr, was die Anzahl der Wahlen angeht, die weltweit stattfinden und bei denen über 2 Milliarden Menschen ihre Stimmen abgeben werden, unter anderem in den Vereinigten Staaten, in Indien, Mexiko und Südafrika. Da KI-Regulierung in der Politik eine hohe Priorität einnimmt, werden Regierungswechsel Auswirkungen auf die weltweiten Entwicklungen in diesem Bereich haben. Zudem stellt Taiwan im Kontext des technologischen Wettbewerbs zwischen den USA und China eine unentbehrliche Quelle in der weltweiten Lieferkette für hochentwickelte Graphikprozessoren (GPUs) dar, welche für die Entwicklung von KI-Modellen von zentraler Bedeutung sind. In möglichen Eskalationsszenarien könnten die USA und China Maßnahmen und Gegenmaßnahmen gegen das jeweils andere Land ergreifen, während sich ihre Verbündeten Gedanken über die bestmögliche Ausrichtung machen. Und schliesslich werden die regionalen und nationalen Steuerungsmechanismen von der Suche nach einem System der gegenseitigen Kontrolle bestimmt, mit dem der nie zuvor dagewesenen Macht einiger weniger Akteure in der KI-Industrie entgegengewirkt werden soll. Aus diesen drei Trends werden Konfrontationen hervorgehen, welche Einfluss auf die KI-Entwicklung haben werden.

Der Kampf um Einfluss auf das globale KI-Regelwerk

Die internationale Gemeinschaft ist sich der Risiken und der Komplexität im Umgang mit KI bewusst. Denn durch die Nutzung von KI wird eine Vielzahl an Risiken verstärkt, angefangen bei relativ eng gefassten Bedrohungen bis hin zu gesamtgesellschaftlichen Gefahren. Zum einen erzeugen KI-Systeme unausgewogene, fehlerhafte Rückschlüsse oder sogar „Halluzinationen“, die falsche oder irreführende Informationen als Tatsachen präsentieren. Zum anderen verursachen sie strukturelle und gesellschaftliche Veränderungen durch Jobverluste und Auswirkungen auf die Bildung oder die Umwelt. Während sich jüngste Diskussionen mehr auf existenzielle Gefahren und den möglichen Verlust der menschlichen Kontrolle konzentrieren, müssen auch die von der KI-Nutzung hervorgerufenen Schäden im Alltag vollumfänglich berücksichtigt werden. Eine zunehmende Entkoppelung zwischen KI und digitaler Inklusion macht deutlich, dass ganze Länder und einzelne Bevölkerungsgruppen bereits unter einer digitalen Kluft sowie digitaler Armut leiden. 

Wir werden derzeit ZeugInnen verschiedener Bestrebungen zur KI-Regulierung. Erstens wurden auf multilateraler Ebene mehrere Prozesse in Gang gesetzt: Der Europarat verhandelt bereits über ein internationales, verbindliches Instrument zur Entwicklung, Gestaltung und Anwendung von KI-Systemen. Unterdessen hat der UN-Generalsekretär ein hochrangiges Beratungsgremium zur KI eingerichtet, das mit der Aufgabe betraut ist, vor dem Zukunftsgipfel im September 2024 die Regulierungslandschaft zu kartieren und politische und institutionelle Optionen vorzuschlagen. Ein erster, vom Vereinigten Königreich im November 2023 einberufener, globaler KI-Sicherheitsgipfel nahm zuletzt Fahrt auf, als es darum ging, Sicherheitslücken bei der KI-Überprüfung zu schließen.

Zweitens finden auf nationaler Ebene Gespräche zur Regulierung statt. Neben der laufenden Arbeit der EU an einem KI-Gesetzesentwurf, Chinas internen Versuchen zur Schaffung von Regulierungsmechanismen und der vor kurzem erlassenen US-Präsidentenanordnung zur KI, beraten immer mehr Regierungen in Lateinamerika, Afrika und Asien über KI-Gesetze. Dabei ist offenkundig, dass der Weg zur Kontrolle und Regulierung von KI keine Schnellschusslösung sein kann. Viele Länder versuchen sich noch immer über ihre Positionierung in den Regulierungsdebatten klar zu werden. Vielmehr handelt es sich um einen langfristigen Prozess zur Regulierung einer bereits bestehenden Allzwecktechnologie, die flexibel genug sein muss, um ständigen Verbesserungen Raum zu geben. 

Trotz dieser Reformansätze bleiben wichtige Fragen, die in den globalen KI-Gesprächen vorherrschen, unbeantwortet: Welche zukunftstauglichen Lösungen können auf der Regulierungsebene konzipiert werden? Welche Gefahren birgt ein fragmentiertes Regulierungssystem? Wie könnte ein kohärenteres Regelungssystem für das öffentliche Interesse optimiert werden? Sind wir bereit, anstelle von reaktiven Systemen, die versuchen, Lösungen für aktuelle Probleme festzumachen, Regulierungs-Ökosysteme zu entwickeln, bei denen das Wohlergehen der Menschheit im Mittelpunkt steht und die aufgabenorientiert bleiben? 

Die Rolle des internationalen Genf

Dennoch scheinen die meisten Organisationen in ihren Silos zu arbeiten, was es schwierig macht, in den globalen KI-Gesprächen mit geeinter Stimme aufzutreten.

Bei der KI-Regulierung kann Genf eine wichtige Rolle spielen. Mit einer kritischen Masse an internationalen Organisationen und NGOs ist Genf ein globaler Dreh- und Angelpunkt sowohl für technische Standardisierung als auch für internationale Gesetze – insbesondere beim Humanitären Völkerrecht und dem Schutz der Menschenrechte. In diesen etablierten Bereichen müssen in Zukunft gezieltere Anstrengungen unternommen werden, um Einfluss auf die KI-Entwicklungen zu nehmen. Das humanitäre Ökosystem wird durch die KI rasch verändert, und die Daten einer noch nie dagewesenen Zahl an Zivilpersonen werden gerade Maschinen überlassen, was langfristige und noch unbekannte Folgen haben wird. 

Dennoch scheinen die meisten Organisationen in ihren Silos zu arbeiten, was es schwierig macht, in den globalen KI-Gesprächen mit geeinter Stimme aufzutreten. Die Mehrheit der internationalen, in Genf ansässigen Institutionen sind bereits auf den KI-Zug aufgesprungen, indem sie entweder intern KI-Instrumente verwenden oder sich zum globalen Nutzen an KI-unterstützen Instrumenten beteiligen oder diese entwickeln. Genf ist direkt oder indirekt daran beteiligt, wie konsequent KI-Beschlüsse durchgeführt werden.  

Außerdem stehen aktive Multi-Stakeholder-Netzwerke mit Sitz in und um Genf an der Spitze der "AI for Good"-Bewegung. Dabei ist die Bedeutung von „gut“ jedoch nicht immer klar und wird nicht von allen InteressenvertreterInnen gleichermaßen geteilt. Frühere Versuche, ethische Leitlinien in der KI-Welt aufzustellen, haben deren Grenzen aufgezeigt, denn sie breiteten sich nicht auf der ganzen Welt aus. Unter diesem Gesichtspunkt lohnt es sich, zwei Wege einzuschlagen: Zum einen, sich auf zentrale Eckpfeiler zu verständigen, deren Wert von verschiedenen Interessengruppen geschätzt wird, und die Convening Power des internationalen Genfs zu nutzen, um ein gemeinsames Vokabular zu etablieren. Zum anderen kann das internationale Genf Gespräche über Mechanismen zum Schutz nichtdigitalen Wissens vor KI-bedingten Störungen ermöglichen. 

Letztendlich bleibt die akademische Welt eine unterrepräsentierte Interessengruppe in den Debatten über KI-Regulierung. Während einige Universitäten das Gebiet der künstlichen Intelligenz fördern, ist das Verhältnis an Wissenschaftlerinnen und Wissenschaftlern, die Zugang zu Diskussionsforen erhalten, unausgewogen, was sich durch das internationale Genf minimieren ließe. Immer mehr Regierungen haben öffentliche Finanzhilfen und eine Bündelung von Ressourcen für nationale Hochleistungsrechner angekündigt (ein aktuelles Beispiel stellt das nationale Hochleistungs-Rechenzentrum CSCS in der Schweiz dar), mit dem darauf abgezielt wird, die Kluft zwischen privatem und öffentlichem Fachwissen zu verringern. In kommende Gespräche sollten nicht nur die von wissenschaftlichen Institutionen vorgelegten Beweise und Ansichten einbezogen werden, sondern sie sollten auch aktiv von zukünftigen Forschungen über die mit KI einhergehenden gesellschaftlichen Veränderungen geprägt sein. Dafür ist es an der Zeit.


Über den Autor

Roxana Radu ist außerordentliche Professorin für digitale Technologien und öffentliche Politik an der Blavatnik School of Government, Universität Oxford.

Disclaimer
Die in dieser Publikation zum Ausdruck gebrachten Meinungen sind die der Autoren. Sie geben nicht vor, die Meinungen oder Ansichten des Geneva Policy Outlook oder seiner Partnerorganisationen wiederzugeben.