EN

KI-Gipfel in Seoul
Warum KI-Regulierung so schwierig ist

Der südkoreanische Präsident Yoon Suk Yeol, Mitte, nimmt am virtuellen KI-Gipfel in Seoul im Blauen Haus in Seoul, Südkorea, teil

Der südkoreanische Präsident Yoon Suk Yeol, Mitte, nimmt am virtuellen KI-Gipfel in Seoul im Blauen Haus in Seoul, Südkorea, teil.

© picture alliance / ASSOCIATED PRESS | Uncredited

Auf dem KI-Gipfel in Seoul ist ein Zwischenstand des internationalen Berichts zur Bewertung von KI-Risiken vorgestellt worden. Das Papier der 75 Expertinnen und Experten zeigt: Selbst für die nahe Zukunft ist die Entwicklung der KI ungewiss. Für die Regulierung ist das eine große Herausforderung.

Die internationalen Anstrengungen zur Risikobewertung und Regulierung von Künstlicher Intelligenz gewinnen weiter an Fahrt. Auf dem digitalen KI-Gipfel in Seoul am 20. und 21. Mai haben sich mehr als zwei Dutzend Staaten darauf geeinigt, gemeinsame Risikogrenzen für die Entwicklung und den Einsatz von KI zu entwickeln. Unter den Unterzeichnern der Erklärung sind auch Deutschland und die Europäische Union.

In Seoul wurde ein Zwischenbericht des ersten “Scientific Report on the Safety of Advanced AI” vorgestellt. Erstmals liegt damit eine detaillierte Bewertung eines internationalen und unabhängigen Gremiums zu möglichen Gefahren durch die neue Technologie vor.

Einigung über Risiken, Uneinigkeit über Entwicklungen

Der Bericht könnte später die wissenschaftliche Grundlage für eine multilaterale Regulierung und Überwachung von Künstlicher Intelligenz legen. Am vorhergehenden KI-Gipfel im Vereinigten Königreich, dem ersten überhaupt, hatten 30 Staaten sowie die UN und die EU die Einrichtung des wissenschaftlichen Gremiums beschlossen. 75 namhafte Expertinnen und Experten arbeiten an dem Mammut-Projekt.

Der erste Zwischenstand zeigt, dass ziemliche Einigkeit praktisch nur in der Beschreibung der möglichen Risiken besteht. So nennen die Experten bekannte Gefahren wie Deep Fake News, Massenarbeitslosigkeit und rassistische oder ideologisch gefärbte Ergebnisse. Auch einen Kontrollverlust des Menschen über die Künstliche Intelligenz schließen sie nicht aus.

Über die Eintrittswahrscheinlichkeiten künftiger Risiken sowie wann und wie diese wirklich akut werden könnten, herrscht Uneinigkeit. In vielen Fällen besteht der einzige Konsens darin, dass ein Konsens weit entfernt ist. “Die zukünftige Entwicklung der KI-Systeme mit allgemeinem Verwendungszweck (General Purpose AI) ist bemerkenswert ungewiss", heißt es in dem Bericht. “Selbst in naher Zukunft scheint eine breite Palette möglicher Ergebnisse möglich zu sein, darunter sowohl sehr positive als auch sehr negative Ergebnisse sowie alles dazwischen.”

Große Meinungsunterschiede gibt es beispielsweise bei der Frage, wie schnell sich die Technologie weiter entwickeln wird. Reicht die fortgesetzte Skalierung von Rechenleistung und die Verfeinerung bestehender Techniken aus, um schnelle Fortschritte zu erzielen? Oder sind neue wissenschaftliche Durchbrüche notwendig, um die Fähigkeiten der General-Purpose-KI wesentlich zu verbessern?

Die Fortschritte der vergangenen Jahre waren durch einen erhöhten Einsatz von Ressourcen zustande gekommen - dem sogenannten Scaling - und nicht anhand von wissenschaftlichen Durchbrüchen. Falls sich der aktuelle Trend fortsetze, werden im Vergleich zum Jahr 2023 einige Modelle für künstliche Intelligenz bis Ende 2026 mit der 40- bis 100-fachen Rechenleistung trainiert werden, prognostizieren die Forscher.

AI Summit
© picture alliance / ASSOCIATED PRESS | Ahn Young-joon

Wissenschaftler können manche KI-Entscheidungen nicht erklären

Allerdings ist fraglich, ob für solche künftigen Steigerungen überhaupt die nötigen Ressourcen wie Energie und Chips vorhanden sind. Zudem ist umstritten, ob die reine Skalierung der Rechenleistung ausreicht, um die Fähigkeiten KI auch in Zukunft noch drastisch zu verbessern - oder ob die Technik ohne grundlegende neue Ansätze an ihre Grenze kommt.

Eine große Herausforderung ist, dass auch Experten noch nicht vollständig nachvollziehen können, wie manche KI-Modelle zu ihren Resultaten kommen. “Forscher können gegenwärtig keine für Menschen nachvollziehbaren Erklärungen liefern, wie Modelle und Systeme von General Purpose KI zu ihren Ergebnissen und Entscheidungen gelangen”, heißt es in dem Bericht. “Dies erschwert die Einschätzung oder Vorhersage ihrer Leistungsfähigkeit, Zuverlässigkeit und die Risikoabschätzung potenzieller Gefahren.”

Angesichts dieser Unwägbarkeiten scheint weitere Forschung zu technischen und gesellschaftlichen Risiken der Künstlichen Intelligenz unabdingbar. Auf dem Gipfel in Seoul einigten sich die Staaten deswegen auf weitere Maßnahmen. Zehn Länder sowie die EU beschlossen, ein internationales Netzwerk von KI-Sicherheitsinstituten aufzubauen. Damit sollen Forschungsbemühungen aufeinander abgestimmt und gemeinsame Standards und Testmethoden festgelegt werden. Vereinbart haben diesen Schritt Australien, Kanada, die Europäische Union, Frankreich, Deutschland, Italien, Japan, der Republik Korea, Singapur, den USA und das Vereinigte Königreich.

Zudem verpflichteten sich im Rahmen des Gipfels 16 Unternehmen dazu, Standards für die Bewertung ihrer neuesten KI-Modelle zu veröffentlichen. Dazu gehört die Untersuchung des Missbrauchsrisikos der Technologie durch böswillige Akteure. Die Unternehmen sollen auch definieren, wann schwerwiegende Risiken als "nicht tolerierbar" eingestuft werden. Zu den Unterzeichnern zählen außer amerikanischen Big-Tech-Unternehmen auch Firmen aus Südkorea, dem Nahen Osten sowie eines aus China. Aus der EU hat sich das französische KI-Unternehmen Mistral angeschlossen.

Frederic Spohr leitet das Büro der Friedrich-Naumann-Stiftung für die Freiheit in Seoul.