Was ist ChatGPT?

Seit Anfang 2023 ist der Chat-Bot ChatGPT von OpenAI, der mit künstlicher Intelligenz (KI) arbeitet, in aller Munde. Nutzerinnen und Nutzer können sich mit dem Programm wie mit einer realen Person „unterhalten“, Fragen stellen oder Befehle eingeben. Der KI-gestützte Chatbot kann jede Art von Text verarbeiten und ausgeben. So kann mit mit Hilfe von ChatGPT beispielsweise Geschichten und Gedichte schreiben, Fragen beantworten oder Texte zusammenfassen.

Der Chat-Bot kann auch Code generieren. Wenn man beispielsweise eine händische Skizze einer Webseite hochlädt, erhält man den funktionierenden Code hierfür.

Neben Open AI gibt es auch weitere Anbieter solcher Chat-Bots wie z.B. Google Bard, darunter auch open source Varianten von ChatGPT. Um diese zu nutzen ist derzeit allerdings noch viel technisches KnowHow erforderlich.

Was bedeutet ChatGPT und wie funktioniert es?

Die Abkürzung „GPT“ steht für Generative Pretrained Transformer, das heißt die Modelle wurden mit großen Datensätzen trainiert.  Das bedeutet, dass nur die Daten in das Modell einfließen, die in digitaler Form schon vorliegen - also überwiegend Daten aus der entwickelten Welt. Dies birgt jedoch die Gefahr der sogenannten „algorithmischen Voreingenommenheit“ – Fachleute sprechen hier auch vom „Bias“. Und das kann es zu unfairen Ergebnissen führen, wenn bspw. bestimmte Informationen „ausgeblendet“ werden.

ChatGPT ist ein sogenanntes „Large Language Model“, dem eine Architektur von neuronalen Netzen zugrunde liegt. Diese speisen sich großenteils unüberwacht mit immensen Mengen an Texten aus dem Internet und abstrahieren aus den Daten Übergangswahrscheinlichkeiten zwischen einzelnen Wörtern. Das System ist daher nicht in der Lage, Sprache auf einer semantischen Ebene zu konstruieren. Es kann jedoch aufgrund einer vorangegangenen Analyse von Sprachstrukturen und -mustern Texte berechnen und in natürlicher Sprache ausgeben.

ChatGPT greift auf enorm große Datenmengen zurück und funktioniert als „lernende Mustererkennung“. Das bedeutet, dass das Tool in der Lage ist, durch Suchanfragen und Rückmeldungen selbstständig dazuzulernen. ChatGPT 4 kann auf das Internet zugreifen und kann daher im Unterschied zu Vorgängermodellen auch Bilder generieren oder Informationen ausgeben, die später als 2021 entstanden sind.

Das Neue an ChatGPT: Maschinen sprechen jetzt auch unsere Sprache und können die Sprache selbst als Instrument nutzen. Anfragen, die man im Chat-Format an das Tool stellt, werden direkt beantwortet. Das können sowohl einfache Fragen als auch die Aufgabe sein, komplexe Texte und Abhandlungen zu schreiben.

Kann ChatGPT auch Bilder erstellen?

Seit März 2023 gibt es mit ChatGPT 4 eine neue Version der Software, die bisher auf Text ausgerichtet war. Sie ist kostenpflichtig und gibt wie ihr Vorgängermodell Antworten in Textform. Diese Version kann größere Textmengen verarbeiten: Fragen und Antworten können jetzt bis zu 25.000 Wörtern lang sein. Laut Entwicklerfirma Open AI soll die neue Version auch komplexere Fragen verstehen und Antworten geben können, die denen von Menschen ähnlicher sind als früher.

Neu ist auch, dass man statt Text bei der Eingabe nun auch Bilder hochladen kann. Die im März 2023 vorgestellte Version GPT-4 kann diese analysieren und beschreiben. Um diese zu beantworten, greift ChatGPT auf riesige Datensätze aus dem Internet zurück und setzt diese eigenständig in einen passenden Kontext. ChatGPT kann selbst keine Bilder erstellen, aber die Software erkennt und interpretiert den Inhalt von Bildern, die hochgeladen werden.

Ein Beispiel: Auf einem Bild sind Eier, Milch und Mehl zu sehen. Die Datei kann man hochladen und den Chatbot fragen, was sich damit zubereiten lässt. Als Antwort zählt die Software dann mögliche Gerichte auf: Waffeln, Pancakes, Crêpes etc..

Wie kann man ChatGPT nutzen?

Das KI-Tool findet man auf der Internetseite chat.openai.com. Man kann es im Webbrowser öffnen. Eine Registrierung mit der eigenen E-Mail-Adresse ist die Voraussetzung, die kostenlose Version nutzen zu können.

Wo sind die Grenzen und Herausforderungen von ChatGPT?

Ein Kritikpunkt an ChatGPT ist, dass es zwar oft (aber nicht immer) in der Lage ist, Quellen anzugeben. Die Nutzenden müssen jedoch selbst entscheiden, ob diese Quellenangabe vollständig, korrekt oder vertrauenswürdig ist. Beim Training des Sprachmodells wurde das Thema Transparenz und Quellen nicht ausreichend berücksichtigt. Auch zeigt sich bei ChatGPT der sogenannte Framing-Effekt. Werden bei beispielsweise bei einer Google-Suchanfrage verschiedene Quellen und unterschiedliche Informationen angezeigt, so erhält man bei ChatGPT nur ein einziges Ergebnis. Auch hier entsteht wieder die Gefahr eines „Bias“, des sogenannten Automation Bias. So bezeichnet man das blinde Vertrauen in die maschinellen Antworten. Ohne Einordnung, Alternativen und Kontext und ohne Quellenangabe können hier wichtige Aspekte weggelassen oder hervorgehoben werden, wenn ein Sachverhalt dargestellt wird.

Auch beim Thema Plagiatserstellung – beispielsweise bei Prüfungen an Schulen und Universitäten ergeben sich Herausforderungen durch ChatGPT - nicht nur in ethisch-moralischer, sondern auch in juristischer Hinsicht. Es stellen sich Fragen wie: Wer ist verantwortlich und wer haftet bei der Nutzung von ChatGPT? Wie gehen wir mit geistigem Eigentum um? Das betrifft sowohl den Hersteller OpenAI als auch Nutzerinnen und Nutzer, die die Ergebnisse von ChatGPT weiterverwenden. Das betrifft besonders Fachbereiche wie Medizin, Journalismus, das Prüfungswesen, aber auch die Forschung oder Softwareentwicklung. Denn ein fehlerhafter Arztbrief, eine inkorrekte Anklageschrift oder ein schadhafter Softwarecode können neben ethischen Fragen auch zivil- oder sogar strafrechtliche Folgen haben. Denn auch bei ChatGPT4 sind laut Entwicklern des Tools Probleme der Vorgänger-Version noch nicht behoben und die Antworten können auch weiter Fehler enthalten.

Wie steht es bei ChatGPT mit dem Datenschutz?

Vor der Nutzung von ChatGPT sollten man sich vorab ein paar Dinge bewusst machen: ChatGPT speichert die Daten, die man eingibt, um Antworten zu generieren. Auch wenn das Tool keine personenbezogenen Daten erfasst, sollte man niemals persönliche Daten eingeben. ChatGPT befindet sich zudem noch in der Testphase. Daher werden eingegebenen Informationen verwendet, um die KI zu trainieren und zu verbessern. Auch wenn die Entwicklerfirma OpenAI Datenschutzrichtlinien entwickelt hat, die beschreiben, wie die Daten geschützt und verwendet werden, garantiert das Unternehmen nicht die Sicherheit der Daten.

Mit ein paar Maßnahmen können Sie die eigenen Daten bei der Verwendung von ChatGPT besser schützen: Die erste Voraussetzung ist eine sichere Internetverbindung. Darüber hinaus sollten Sie keine sensiblen oder persönlichen Daten in den Chat eingeben und Daten möglichst anonymisiert eingeben, um Ihre Privatsphäre zu schützen. Mehr Informationen darüber, wie Ihre Daten bei der Nutzung von ChatGPT verwendet werden, finden sich in den Datenschutzrichtlinien (verlinken mit https://openai.com/policies/privacy-policy)von ChatGPT und OpenAI.

Sollte ChatGPT „gestoppt“ werden?

Aufgrund möglicher Risiken haben zuletzt Technologie-Expertinnen und Experten in einem offenen Brief eine Pause für Entwicklung Künstlicher Intelligenz gefordert, bis die Sicherheitsstandards mithalten können. Auch die Vereinten Nationen drängen die Gesetzgeber weltweit, Empfehlungen zum ethischen Umgang mit KI umzusetzen und Ethik-Guidelines zu entwickeln.

Dennoch steht fest: Generative KI-Anwendungen wie ChatGPT liefern Ergebnisse in bisher nicht da gewesener Qualität. Das birgt immenses Potenzial. Im Bildungswesen kann ChatGPT beispielsweise ergänzend zum Unterricht und in Prüfungen eingesetzt werden. Und die Bilderkennung und -beschreibung der neuesten Version des Chatbots kann Menschen mit Sehbehinderung den Zugang zu Online-Angeboten zu erleichtern und Angebote barrierefreier zu gestalten. Auch durch die automatisierte „Übersetzung“ von Texten in „leichte Sprache“ kann Chat GPT die Barrierefreiheit im Netz erhöhen.

Fest steht: Wie bei allen Anwendungen von Technologie sind auch KI-Anwendungen wie ChatGPT nicht neutral. Ob sie positive Auswirkungen haben oder zum Schaden von Menschen eingesetzt werden, entscheidet sich dadurch, ob KI-Systeme verantwortlich eingesetzt werden.  Hier sind jetzt Nutzerinnen und Nutzer, Bildungseinrichtungen, Unternehme und Staat und Politik gefordert, sich entsprechend dazu zu verhalten. Innovative Technologie zu boykottieren, erscheint wenig sinnvoll. Gefragt sind jetzt mehr denn je Digital- und Medienkompetenzen für Tools wie ChatGPT und ein bewusster Umgang mit dem Output. Generative KI kann in vielen Bereichen produktivitätssteigernd wirken und ihre Entwicklung ist nicht mehr aufzuhalten. Wichtig bleibt es dennoch, realistisch einzuschätzen, was Technologie leisten kann und was nicht und die Ergebnisse, die ChatGPT liefert, als Ausgangspunkt für eine menschliche Überarbeitung zu nehmen.

Wollen Sie mehr über verantwortliche Digitalisierung erfahren und Corporate Digital Responsibility (CDR) in Ihrem Unternehmen umsetzen?

Eine gute Einführung in das Thema mit vielen guten Praxisbeispielen bietet auch mein Audiokurs „Corporate Digital Responsibility: Die digitale Transformation nachhaltig und verantwortlich gestalten“ bei LinkedIn Learning (die Inhalte sind für Mitglieder von LinkedIn Learning zugänglich):