ChatGPT, generative KI und Medienbildung

KI ChatGPT -Symbolbild
Foto: Mojahid Mottakin – unsplash.com

Konsequenzen aus dem Hype um KI?

Die diesjährige re:publica  hatte neben dem offiziellen Motto Cash! noch ein offensichtliches zweites Thema, das seit Monaten öffentliche Debatten und Fachdiskurse beherrscht: künstliche Intelligenz, kurz: KI. Denn seit der Veröffentlichung des KI-basierten Chatbots ChatGPT durch die amerikanische Firma OpenAI Ende November 2022 ist das Thema in der Mitte der Gesellschaft angekommen: Was kann KI, wo liegen ihre Grenzen? Welche Gefahren birgt die derzeitige Entwicklung in sich und wird die Menschheit nicht doch irgendwann arbeitslos und von einer übermächtigen künstlichen Intelligenz unterjocht oder ausgelöscht?

Aber auch diesseits solch dystopischer Fantasien werfen ChatGPT & Co. nicht zuletzt aufgrund ihrer Grenzen eine Reihe spannender Fragen auf. Schließlich steht die Herausforderung für die (Medien-)Pädagogik im Raum: Wie sollte ein sinnvoller Umgang mit diesen Werkzeugen aussehen? Und welche Kompetenzen braucht es zu ihrer verantwortlichen Nutzung?

Was heißt hier KI?

Bereits zweimal hatten Informatiker:innen große Hoffnungen auf KI gesetzt: In den 50er- und 60er-Jahren des letzten Jahrhunderts wurde bereits an künstlichen neuronalen Netzen geforscht, aber die damaligen technischen Möglichkeiten führten auch an Grenzen. Die Folge war der erste sogenannte KI-Winter. Der nächste Frühling in den 80er-Jahren hatte wesentlich mit der massiven Entwicklung von Prozessoren und Speichermöglichkeiten zu tun, die auch Grundlage der Verbreitung von PC wurden, sowie mit der Forschung an Expertensystemen. Aber auch hier führten die begrenzten Möglichkeiten zu einem zweiten KI-Winter.

Der Begriff künstliche Intelligenz ist nach wie vor auch unter Fachmenschen umstritten. Schon die Frage, ob das überhaupt die sinngemäß richtige Übersetzung des anglo-amerikanischen Artificial Intelligence (AI) ist, lässt sich diskutieren. Und viele Expert:innen bestreiten rundheraus, dass KI überhaupt mehr als ein Marketing-Begriff ist – so u.a. Meredith Whittaker, Präsidentin der Signal-Stiftung, auf #hrer Keynote bei der #rp23.

Denn letztlich sind es komplexe Algorithmen, die auf Basis großer Mengen von Trainingsdaten Vorhersagen für neue Daten treffen. Konkret: Eine Bilder erstellende KI wie Stable Diffusion oder Dall-E hat absolut keine Ahnung von dem, was sie da macht. Sie arbeitet Befehle ab und produziert ein Ergebnis, das – wenn die Parameter stimmen und die Trainingsdaten hinreichend gut waren – unsere Erwartungen erfüllt. Mit der Veröffentlichung von ChatGPT (und mittlerweile etlichen darauf basierenden Anwendungen) als Text erstellender KI oder Bild-Generatoren wie Dall-E oder Stable Diffusion haben wir es mit einer generativen KI zu tun, die vorab mit Daten trainiert wurde. Im Fall von ChatGPT basiert sie auf dem Transformer-Sprachmodelle, das Google entwickelt hat – daher der Name Generative Pretrained Transformer, kurz GPT.

Wie sag ich’s der Maschine?

Quasi nebenbei erleben wir einen revolutionären Schritt im Verhältnis zwischen Menschen und Maschinen: Es war ein weiter Weg von den Lochkarten zur Eingabe in Computer Mitte des letzten Jahrhunderts über Tastaturen, Mäuse und zuletzt Wisch- und Tipp-Gesten auf Smartphone oder Tablet. Der bislang letzte Schritt war die Umsetzung von natürlicher Sprache, zum Beispiel zur Steuerung der Navigation im PKW oder bei Sprachassistenz-Systemen wie Alexa, Siri & Co. Diese waren allerdings an bestimmte Befehle und Einsatzzwecke gekoppelt. Nun findet die Interaktion auf völlig neuer Ebene statt, da tatsächlich die Verarbeitung natürlicher Sprache unabhängig von einem bestimmten Thema oder einer speziellen Funktion möglich ist. Daher erleben wir gerade den dritten KI-Frühling mit einer unvorstellbaren Dynamik.

Ki Mensch-Maschine-Kommunikation Lochkartenleser
Frühe Mensch-Maschine-Interaktion: Lochkarten-Lesegerät
(Foto: Bernd Dittrich – unsplash.com)

Was kann generative KI?

Allerdings hat eine generative KI keine Ahnung, was sie tatsächlich macht. ChatGPT hat kein Verständnis von den Texten, die es produziert. Es fügt schlicht Wörter aufgrund von Wahrscheinlichkeiten aneinander. Auch bei einer Rechenaufgabe rechnet das System keineswegs, sondern erstellt aus seiner Datenbasis die wahrscheinlichste Antwort. Dabei gibt es in diesen Systemen immer auch einen „Temperatur“-Regler, mit dem die Abweichung von der höchsten Wahrscheinlichkeit eingestellt werden kann. Damit lässt sich vermeiden, dass die – tatsächlich meist mindestens auf den ersten Blick beeindruckenden – Ergebnisse nicht zu vorhersehbar werden. Jedoch kann das nicht darüber hinwegtäuschen, dass ChatGPT eine Art „Autovervollständigen auf Steroiden“ sei, so die Informatikerin Katharina Zweig.

Insofern erleben wir aktuell höchstens eine schwache KI, die in Spezialfällen wie Texte oder Bilder erstellen aber (zumindest auf den ersten Blick) durchaus überzeugende Ergebnisse produziert. Von einer starken bzw. universalen KI, die über ein Modell von Welt verfügt und daraus Handlungen entwickelt, sind wir weit entfernt. Solche universal einsetzbare Maschinen, die sich lernend selbst weiter entwickeln, gibt es bislang nur in der Science Fiction, siehe Hal 9000 (2001 – Odyssee im Weltraum), Marvin (Per Anhalter durch die Galaxis), Terminator oder Matrix. Die Frage, ob es so eine starke Intelligenz überhaupt geben sollte, ist allerdings ebenso ethisch wie politisch relevant.

Aktuelle Nahrung bekommt die Debatte durch ein kurzes Statement, in dem Ende Mai über 350 KI-Expert:innen vor dem Risiko einer Auslöschung der Menschheit durch KI warnen, deren Risikopotenzial sie auf einer Stufe mit der Klimakatastrophe oder dem Atomkrieg sehen. Über die Motive eines solchen dystopischen Aufrufs lässt sich streiten. Zahlreiche besonnene Reaktionen von ebenfalls namhaften Fachleuten weisen auf das deutlich realere Risiko durch aktuell existierende KI-Produkte hin, die aber eben Fehler produzieren.

Grenzen und Gefährdungen

Insofern muss sich die Weiterentwicklung derzeit auf die Verbesserung der vorhandenen Systeme und Ausmerzung der zahlreichen Fehler richten. Denn ChatGPT gibt bereits auf der Startseite die Grenzen des Systems an: Neben der bis Ende 2021 begrenzten Datenbasis kann es eben „gelegentlich falsche Informationen produzieren“ oder „gelegentlich gefährliche Informationen oder voreingenommene Inhalte“ wiedergeben. Wo doch der Kampf gegen Fake News und Desinformationen in sozialen Netzwerken und Messengern jetzt schon an den Sisyphos-Mythos erinnert. Und während ein Ende März erschienenes Foto vom Papst im schicken Designer-Daunenmantel noch witzig scheinen mag, bergen die nahezu zeitgleich viral gegangenen Fotos von der angeblichen Verhaftung Donald Trumps deutlich mehr politischen Sprengstoff.

Praktische Versuche, die Mustererkennung und darauf basierende Klassifikation im wirklichen Leben auszuprobieren, führen bislang zu äußerst unschönen Ergebnissen. Nur mit viel gutem Willen kann der Einsatz einer Gesichtserkennung am Berliner Südkreuz als „Erfolg“ betrachtet werden. 30 Prozent nicht erfasste Straftäter:innen sind das eine (false negatives). Für das eine Prozent unschuldiger Bürger:innen, die fälschlich als gesuchte Kriminelle eingestuft wurden (false positives), ist das System sicherlich inakzeptabel. Von den gelegentlich tödlichen Unfällen mit selbstfahrenden E-Autos ganz zu schweigen.

KI Gesichtserkennung Überwachung - viele Kameras
KI kann auch für automatisierte Gesichtserkennung eingesetzt werden – mit deutlichen Fehlerquoten
(Foto: Matthew Henry – unsplash.com)

Daneben sind auch die Trainingsdaten selbst ein Problem, denn es dürfte fast unmöglich sein, diese komplett vorurteilsfrei zusammenzustellen. In der Konsequenz gibt es bei – hierzulande schon aus Datenschutzgründen unzulässigen – automatisierten Bewerbungsverfahren eine wenig überraschende Bevorzugung weißer männlicher Bewerber. Und umgekehrt ist bei der Rückfallprognose von Straftätern in den USA eine überproportionale Benachteiligung Schwarzer Bürgerinnen und Bürger belegt.

Schließlich suchen Datenwissenschaftler:innen beim Trainieren der KI nach Korrelationen in den Daten, die sie algorithmisch bearbeiten. Dass Korrelationen, also möglicherweise rein zufällige Zusammenhänge, aber nicht mit Kausalitäten, also belastbareren Begründungen, verwechselt werden dürfen, sollte mittlerweile zur Allgemeinbildung gehören.

Regulierungsbedarf und sozialethische Fragen zur KI

Dass eine derart mächtige neue Technik der Regulierung bedarf, ist unstrittig. Die EU arbeitet seit 2019 an einem AI Act genannten Gesetz zur Regulierung von KI. Zunächst hat die Kommission dazu Vorschläge für ethische Leitlinien auf den Weg gebracht. Im nächsten Schritt hat der Ministerrat Ende 2022 einen Kompromissvorschlag zur Regulierung verabschiedet – der nun allerdings noch im Parlament beraten werden muss und daher absehbar noch Zeit braucht.

Im Prinzip geht es dabei um eine Einstufung von KI in Risikoklassen, die dann entsprechende Konsequenzen von einem freiwilligen Verhaltenskodex, zum Beispiel beim Einsatz in Spam-Filtern, über Transparenzpflicht (z.B. bei ChatBots) bis hin zum Verbot reichen, etwa beim Social Scoring, wie es in China seit einigen Jahren praktiziert wird. Allerdings ist die Frage, ob die etablierten Verfahren schnell genug sind, um eine derart dynamische Entwicklung zu regulieren. Schließlich darf Elon Musks Firma Neuralink in den USA nun eine klinische Studie durchführen, bei der Menschen Chips in das Gehirn implantiert werden.

Die wesentlichen Fragen sind jedenfalls bekannt – und müssen in einer breiten gesellschaftlichen Debatte einer Lösung zugeführt werden: Wie kann ein Vorrang menschlichen Handelns und menschlicher Letztentscheidung tatsächlich realisiert werden? Wenn doch KI-Systeme genau dazu eingesetzt werden, den tendenziell in der Aufnahme und Verarbeitung großer Informationsmengen überforderten Menschen zu unterstützen? Wie können Datenschutz, Datensicherheit und auch Urheberrecht gewahrt bleiben, wenn doch große Menge von Trainingsdaten unerlässlich für die Entwicklung von KI-Systemen sind? Lässt sich die Technologie so einhegen, dass sie nicht zu einem weiteren Ausbau des „Überwachungskapitalismus“ (Shoshana Zuboff) beiträgt? Wie lassen sich die sozialen und ethischen Herausforderungen von KI konstruktiv bewältigen? Und welchen Beitrag kann die Technologie zur Lösung sozialer, ökonomischer und ökologischer Probleme leisten?

Zu den Konsequenzen für die Medienbildung: Teil 2 unseres Beitrags

Das könnte Sie auch interessieren:

5 Comments

  1. Pingback: Woran wir gerade arbeiten – Juli 2023 | Clearingstelle Medienkompetenz

  2. Pingback: Nun sag, KI, wie hältst du's mit der Medienbildung? | Clearingstelle Medienkompetenz

  3. Pingback: Woran wir gerade arbeiten – August 2023 | Clearingstelle Medienkompetenz

  4. Pingback: Her | Clearingstelle Medienkompetenz

  5. Pingback: Spot-If-AI: Prompt Engineering - mekomat

Comments are closed.