Vor kurzem haben wir erklärt, was ChatGPT ist und welche weiteren KI-basierten Chatbotprogramme es bereits gibt. Wir haben auf Vorteile und Schwächen dieser Programme hingewiesen. Im zweiten Teil möchte Thomas Askan Vierich noch ein wenig mehr in die Tiefe gehen.
Günter Exel von Realizing Progress hat sich von ChatGPT nicht nur einen ganzen Text schreiben lassen (mit überschaubarem Erfolg, siehe Teil 1), sondern sich auch Vorschläge für Radtouren in Rheinhessen von verschiedenen Anbietern zusammensuchen lassen. Das ging ganz schnell – inklusive Adressen. Aber dann stellte sich heraus, dass diese Adressen gar nicht existierten! Die beruhten auf uralten Daten. Alex Mirschel von Realizing Progress kann das nur unterstreichen: „Mir lieferte das System u.a. eine sehr ausführliche Beschreibung über die Geschichte einer Fähre zwischen zwei Frankfurter Stadtteilen, zwischen denen gar kein Gewässer liegt – geschweige denn eine Fährverbindung besteht. Auch über Sportereignisse aus der jüngsten Vergangenheit erfand das System einfach eigene Wahrheiten mit frei erfundenen Spielverläufen und Ergebnissen.“
So etwas nennen Kritiker „Datenhalluzinationen“. Bei der Präsentation von BARD von Google wurden Geschäftsdaten von Firmen verwechselt und beliebig dargestellt. Bing lieferte für eine Rundreise durch Mexiko ziemlich anrüchige und nicht auf die Zielgruppe passende Empfehlungen. Trotzdem sagen alle, dass die Qualität der Antworten grundsätzlich hoch sei, wenn man bedenkt, dass wir uns noch in der Beta-Phase befinden. „Aber, sagt Alex Mirschel, „auch Quellenangaben sucht man derweil vergeblich, was laut Programmierer*innen auch in der Natur der Sache liegt, aber eben doch seine Tücken mit sich bringt. Gerade bei Nischen mit nur geringen Datenmengen sowie bei stark polarisierenden Themen erscheint es mir sinnvoll, KI-generierte Antworten auch auf ihre Richtigkeit überprüfen zu können. Das ist jedoch mangels Angaben nicht möglich oder das System fabuliert eigene Quellen selbst zusammen. Diagnose: akute Datenhalluzination. Mal schauen, wann es die ersten Fachärzte für unsere Künstlichen Intelligenzen gibt.“
Darin sind sich alle Experten einig: Noch kann man sich nicht auf ChatGPT verlassen, man muss alles gegenchecken. Roland Trebo: „Je mehr Nutzer ChatGPT und andere vergleichbare Programme nutzen, umso mehr lernt das System dazu und bekommt auch Nutzerangaben, die bis jetzt nur Google hat.“
Alex Mirschel vergleicht ChatGPT mit Alexa oder Siri: Beide könnten schon jetzt nicht mehr mithalten. Er hält ChatGPT für einen Gamechanger. Und Günter Exel berichtet vom „neuen Bing“, das für wenige Tester seit wenigen Tagen verfügbar ist und tatsächlich Zugriff auf aktuelle Daten aus dem Web hat. Das Programm könne Artikel aus einer bestimmten Url zusammenfassen oder Pro’s und Con’s eines bestimmten Artikels auf Amazon. Es gibt an, welches Hotel in San Diego sich besonders gut für Kinder eignet und erstellt ein Quiz zu einem bestimmten Thema.
Was kann ChatGPT in seiner jetzigen Form?
Was kann es nicht?
Roland Trebos sagt, ChatGPT habe ein integriertes Regelwerk, die Antworten werden aber nicht darauf kontrolliert, ob sie politisch korrekt sind. Positiv ausgedrückt: Es wird keine Zensur geübt, es wird aber auch nicht bewertet. Blödsinn steht gleichberechtigt neben Sinnvollem. Es wird aber bald neue Oberflächen neben ChatGPT geben mit unterschiedlichen Regeln. Die können auch politisch korrekt sein oder einer bestimmten Weltsicht folgen. Hier bewegen wir uns in einer heiklen Grauzone. Das kennen wir ja auch schon von den Algorithmen diverser Social-Media-Kanäle.
Alex Mirschel sagt: „Das kann eine Hilfestellung sein, auch beim Finden von Keywords.“ Google habe erklärt, dass man KI-generierten Content nicht abstrafen werde. Große Newsnetzwerke hätten ihren Content bereits probeweise komplett KI-generiert: Die Zugriffe waren nicht schlechter, das Ranking auch nicht.
Aber natürlich besteht das große Risiko, dass wir bald von noch mehr Trollen und Spamwellen überschwemmt werden. Günter Exel warnt: „Die Texte neigen dazu sich PR-lastig zu lesen, man muss sie gut prompten, das muss man lernen. Aber man kann sich sehr viel Arbeit bei Standardtexten ersparen.“ Er hat das für ein Reisebüro für Kreuzfahrten in Wien ausprobiert: „Die Infos aus der eigenen Website wurden in gut lesbaren Text umgewandelt, auch für verschiedene Formate.“
Es gibt sogar schon ein GPT-Testprogramm: zeroGPT. Damit kann man testen, ob sich ein Text KI-generiert liest. Wenn ja, kann man ChatGPT wiederum anweisen, einen besseren Text zu schreiben. Und das funktioniert. Am Ende besteht er die Prüfung auf zeroGPT.
Fotoagenturen regen sich bereits auf, Midjourney hat Abmahnungen bekommen. Auch wenn die Fotos verändert werden, unterliegen sie trotzdem dem Copyright des Fotografen oder der Agentur. Oder es werden Fotos generiert, deren Herkunft eindeutig zu erkennen ist. Auftrag: Erstelle ein typisches Foto von einem Hamburger-Restaurant. Herauskommt eines, wo man das goldene M ziemlich prominent sehen kann… wieder hat die Statistik zugeschlagen!
Weiteres Problem: Es wird ständig Content dupliziert – ohne Quellenangabe. Das erschwert den Faktencheck, weil man nicht mehr nachvollziehen kann, wo die Daten herkommen. Man könnte sich auch Content von der Website des Mitbewerbers holen. Das Ergebnis liest sich dann wie ein eigener Text. Schon jetzt hat man in der Wissenschaft mit Copy & Paste zu kämpfen – ChatGPT wird das noch verschlimmern. Welcher Studierende setzt sich noch hin und schreibt sich seine Masterthesis selbst? Woran soll die Professorin erkennen, ob das ein ChatGPT-Text ist? Vielleicht an den fehlenden Quellenangaben… Aber das Problem wird OpenAI sicher auch noch lösen.
Roland Trebos sagt: „Diese Technologie rüttelt an vielen Geschäftsmodellen, auch dem von Google. Wer braucht noch Suchmaschinen? Was ist mit zahlungspflichtigen Bilddatenbanken, was mit dem urheberrechtlich geschützten Werk von Autoren? OpenAI behauptet: KI-generierte Inhalte gehören ihnen. Das sind aber selbst keine urheberrechtlich geschützte Texte.“ Vermutlich wird bald sehr viel Content hinter Paywalls ausgelagert, damit ChatGPT da nicht herankommt. Aber kann das die Lösung sein?
Nutzen von ChatGPT und KI im Tourismus
Es finden sich online bereits zahlreiche Vorlagen für ChatGPT Prompts rund um Social Media-Arbeitsabläufe – von Ideen für Instagram-Stories und Twitter-Threads über Video-Ideen und YouTube-Skripten bis hin zu Facebook-Werbetexten und kompletten Strategien für Influencer-Kampagnen.
ChatGPT und KI sind kein Hype, das wird bleiben, man muss sich damit beschäftigen. Damit kann man die eigene Arbeitsweise kurzfristig verändern und effizienter arbeiten. Das ist gut gegen Arbeitskräftemangel. Individuelle Reisen kann man jetzt effizienter zusammenstellen, Standardarbeiten effizienter gestalten. Auch die eigene Homepage kann man jetzt leichter betexten oder Newsletterkampagnen fahren.
Wie kann ich mich künftig von der Flut an generischem Standardcontent abheben? Was da momentan generiert wird, ist meistens noch enttäuschend, ohne Charakter. Alles was die KI ausgibt, muss gegengecheckt und überarbeitet werden. Man muss seine Prompts schärfen, damit kann man die Tonalität verändern. Das funktioniert sogar bei KI für Bildprogramme wie Midjourney: Auch hier kann man bestimmte Stilvorgaben oder Tonalitäten angeben.
KI-generierter Content steht noch an den Anfängen. Die Technologie wird aber sehr schnell fortschreiten, wie das beim Machine Learning zu erwarten ist. Bis dahin müssen aber noch Rahmenbedingungen (Copyright u.a.) geklärt werden.
Zum ersten Teil des Artikels geht es hier.
Interview: Thomas Askan Vierich
Titelbild: pixabay
14. März 2023
Fragen zu Ihrer Mitgliedschaft oder möchten auch Sie von den Angeboten der HOGAST profitieren? Kontaktieren Sie uns einfach und unverbindlich.
office@hogast.at