+++ 30 MINUTEN CHATGPT - DAS BUCH +++ JETZT IM HANDEL! +++

INFOS
Mehr Chancen durch weniger Risiken
Parsa Marvi Montag, 26. Juni 2023 von Parsa Marvi

Regulierung generativer KI

Mehr Chancen durch weniger Risiken

Die gegenwärtige Debatte um generative Künstliche Intelligenz (KI) ist von Extremen geprägt: Die einen sehen in ihr ein Allheilmittel, andere beschwören Endzeitszenarien. Ich werbe für einen ausgewogeneren Blick auf die Technologie. Ich bin davon überzeugt, dass wir mit KI Mehrwerte für alle stiften können – bei uns, aber auch global. Denn KI kann unsere Arbeit erleichtern, individuelles Lernen fördern, die Pflege von Menschen unterstützen und die Medizintechnik deutlich nach vorne bringen – also unser Leben besser, leichter, gesünder machen.

Gleichzeitig sehe ich aber auch massive Risiken, die von generativer KI ausgehen. Dazu zählen zum Beispiel Falsch- und Desinformation, die die Systeme schnell und billig produzieren können, Verstärkung von Diskriminierung und Marginalisierung oder die Verbreitung persönlicher Informationen, die den Anwendungen bereits entlockt werden konnten. Wie kommt es dazu und was können wir dagegen tun?

Maßgeblich für den Output der Anwendungen generativer KI sind einerseits die Trainingsdaten. Sogenannte Large Language Models (LLM) wie ChatGPT werden mit riesigen Datenmengen trainiert. Besonders sprachlich und inhaltlich hochwertige Texte wie beispielsweise wissenschaftliche Publikationen sind allerdings knapp – mit der Folge, dass auch auf weniger wertige Inhalte zurückgegriffen wird. Bei GPT-3 etwa sind laut OpenAI 82 Prozent der Trainingsdaten nicht genauer definierte „verschiedene Kompilationen von Internetinhalten“. Das können zum Beispiel Texte aus Internetforen sein, wo auch etwa Sexismus, Rassismus, Rechtsextremismus, Antisemitismus oder Queerfeindlichkeit präsent sind. All das wird dann von den Systemen – abhängig von Menge und Gewichtung im Trainingsprozess – reproduziert.

Kreative bleiben auf der Strecke

Ein weiteres strittiges Thema ist außerdem das der Diversität: Wenn ein System, das auf Basis von Wahrscheinlichkeiten arbeitet, nur von einer einzigen Lebensrealität ausgeht, finden viele Menschen in den Antworten generativer KI nicht statt. Das verstärkt Marginalisierung. Wir wollen Pluralität, wir wollen Vielfalt. Dabei helfen können Standards, die mit Blick auf die Trainingsdatenqualität formuliert werden.

Bislang ungeklärt ist außerdem die Frage des Urheberrechts: Gegenwärtig werden die Daten ohne Einwilligung, Kenntlichmachung oder Bezahlung genutzt – Kreative bleiben da auf der Strecke. Die aktuell diskutierte Verpflichtung der Anbieter, das im Prozess genutzte urheberrechtlich geschützte Material offenzulegen, kann hier nur der Anfang sein.

Unser Leben besser, leichter und gesünder

„Ich bin überzeugt, dass wir mit KI Mehrwerte für alle stiften können – bei uns, aber auch global.“

Parsa Marvi, MdB

Fehlende Transparenz

Ausschlaggebend für den Output sind außerdem die Trainingsprozesse: Durch manuelle Eingriffe können Leitplanken gesetzt und so unerwünschte oder gefährdende Antworten verhindert werden. Hier begegnen wir aber gleich mehreren Herausforderungen: Anbieter lassen uns weder am Wissen zu den Leitplanken noch an den Aushandlungsprozessen teilhaben. Entscheidungen zum Sagbaren und Unsagbaren liegen so in der Hand einiger Weniger – mit Demokratie hat das nichts zu tun. Was wir brauchen, sind breite Transparenz und Mitbestimmung.

Transparenz fehlt aber auch beim Thema Arbeitsbedingungen: Recherchen haben aufgedeckt, dass OpenAI sein Training in den Globalen Süden verlegt hat. Dort sichten Clickworker:innen für wenige Dollar am Tag traumatisierendes Material von sexueller Gewalt bis Tierquälerei, um schädliche Daten frühzeitig aus den Datensätzen zu entfernen. Dieser Ausbeutung müssen wir entschlossen entgegentreten.

Breite Transparenz und Mitbestimmung

„Entscheidungen zum Sagbaren und Unsagbaren liegen so in der Hand einiger Weniger – mit Demokratie hat das nichts zu tun.“

Parsa Marvi, MdB

Weltweit erste umfassende Regulierung Künstlicher Intelligenz

Lange Zeit war KI eher ein Nischenthema. Der Hype, den ChatGPT und Co. ausgelöst haben, schafft nun ein politisches Momentum, um breitere Aufmerksamkeit auf laufende Debatten zu lenken. Um die Risiken generativer KI einzuhegen, werden aktuell international mehrere Möglichkeiten diskutiert. Dazu zählen zum Beispiel ein Entwicklungsstopp, der von einer Sammelbewegung aus Wirtschaft und Politik vorgeschlagen worden ist oder allgemeine Verbotsdebatten. Vorbehalte und Ängste gegenüber einer sich derart rasant entwickelnden Technologie müssen wir ernst nehmen. Die Antwort auf die Risiken generativer KI kann aber nicht Stillstand sein. Denn selbst, wenn wir uns zurückziehen, wird es andere Akteure wie China geben, die das nicht tun werden. Keine Verbote, kein Moratorium: Vertrauenswürdige KI kann es nur durch Regulierung geben.

An einer solchen Regulierung arbeiten wir gerade in der EU: Mit dem Artificial Intelligence Act (AIA) entsteht aktuell die weltweit erste umfassende Regulierung Künstlicher Intelligenz. Mithilfe eines risikobasierten Ansatzes werden diejenigen Anwendungen, die ein hohes Risiko für Gesundheit, Sicherheit und Grundrechte darstellen, strengen Regeln unterworfen. Anwendungen, von denen ein inakzeptables Risiko ausgeht, werden verboten. Die große Mehrheit der KI-Anwendungen – nämlich die, die in den niedrigsten Risikostufen eingeordnet werden – müssen keine oder nur wenige Auflagen erfüllen. So regulieren wir zielgenau und lassen weiterhin Raum für Innovation.

Faire Verteilung der Verantwortung

„Wir beobachten, dass die Produkte von Anwendungen generativer KI immer eloquenter, immer realitätsnaher, immer glaubwürdiger daherkommen. Das stellt uns vor Herausforderungen.“

Parsa Marvi, MdB

Kennzeichnung ist zentrales Thema

Nachdem der Kommissionsentwurf aus dem Frühjahr 2021 keinen Hinweis zu generativer KI enthalten hat und der Rat in seiner allgemeinen Ausrichtung Ende 2022 erste Vorschläge für den Umgang mit generativer KI gemacht hat, hat das Europäische Parlament im Juni deutlich nachgelegt und weitreichende Ideen zur Regulierung generativer KI präsentiert. Für die heiße Phase – den Trilog, in den der AIA gerade eingetreten ist – setzen wir uns neben einigen allgemeingültigen Punkten auch für Regelungen speziell zu generativer KI ein. Dazu gehört zum Beispiel eine faire Verteilung der Verantwortung zwischen den Akteur:innen entlang der KI-Wertschöpfungskette. Zentral ist für uns außerdem das Thema Kennzeichnung: Wir beobachten, dass die Produkte von Anwendungen generativer KI immer eloquenter, immer realitätsnaher, immer glaubwürdiger daherkommen. Das stellt uns vor Herausforderungen.

Als wenig hilfreich, weil wenig treffsicher haben sich in diesem Kontext Tools erwiesen, die KI-generierte Inhalte detektieren sollen. Wir brauchen daher eine Kennzeichnungspflicht, die KI-generierte Inhalte anzeigt und über die Grenzen und Gefahren, die von den Systemen ausgehen, informiert. Das schafft Bewusstsein und befähigt zu einer informierten Einschätzung zur Vertrauenswürdigkeit eines generierten Inhalts. So schützen wir nicht nur demokratische Werte, sondern geben auch ein Stück Kontrolle an diejenigen zurück, die von den Chancen Künstlicher Intelligenz besonders profitieren sollen: die Menschen.


Unser Gastautor

Parsa Marvi, MdB

Parsa Marvi, MdB

Parsa Marvi (*1982 in Teheran, Iran) ist seit 2021 Abgeordneter der SPD im Bundestag. Als Mitglied des Ausschusses für Digitales und Berichterstatter für den Artificial Intelligence Act setzt er sich unter anderem für eine Regulierung von Künstlicher Intelligenz ein, die den Diskriminierungs-Potenzialen von Künstlicher Intelligenz wirksam begegnet, Potenziale der Technologie hebt und die Rechte von Bürgern, Arbeitnehmern und Verbrauchern schützt.

-Promotion-

Podcast Production Service

Podcast Production Service

Mehr Infos

-Promotion-

Oliver Schwartz Consulting

PR-Beratung mit KI-Kompetenz

Mehr Infos

Werbung auf diesem Portal?

Mehr Infos

© 2023-2024 by Turtle-Media. Alle Rechte vorbehalten.
Das KI Expertenforum ist ein unabhängiges redaktionelles Angebot.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf „Alle erlauben“ erklären Sie sich damit einverstanden.

Einstellungen