Macht ChatGPT den Journalismus kaputt?

Angeblich kann die KI-Software ChatGPT Texte schreiben wie vom Menschen verfasst. Gilt das auch für den Journalismus? Ich habe es ausprobiert. Das Ergebnis ist einigermaßen ernüchternd - noch!

Ich weiß, das ist eine sehr zugespitzte Überschrift. Dafür bin ich bekannt. Und dafür, dass ich Dinge ausprobiere und überprüfe. Das habe ich gemacht.

Angeblich kann ChatGPT den Stil von Künstlern, Autoren, etc. nachahmen. Ich verfüge über einen Background als Medizin-/Gesundheitsjournalist. Also habe ich das Tool Artikel über das Risiko von Diabetes schreiben lassen. Jeweils im Stil von Apotheken Umschau, Focus, Spiegel, Süddeutsche Zeitung und Zeit. Bei der AU und bei Focus habe ich selbst gearbeitet, die anderen Medien lese ich nahezu täglich.

Nur mit sehr viel gutem Willen kann man dem Stil den einzelnen Medienhäuser zurechnen. Schauen wir mal auf die Überschriften:

Apotheken Umschau: „Diabetes: Risiken und Präventionsmaßnahmen“ … klassischer Ratgeber-Stil.

Focus: „Diabetes: Eine ernste Bedrohung für die Gesundheit“ … hätte mein Ressortleiter damals glaube ich nicht so gewollt.

Spiegel: „Diabetes: Eine vermeidbare Krankheit“ … klingt für mich nicht nach typisch Spiegel.

Süddeutsche: „Diabetes: eine volkswirtschaftliche Herausforderung“ … Schwerpunkt Finanzen? Nur in der Überschrift, nicht im Text.

Zeit: „Diabetes: Eine Herausforderung für die Gesellschaft“ … gesellschaftlicher Aspekt.

Die Texte selber sind allesamt ziemlich ähnlich verfasst. Die typischen Schreibweisen der einzelnen Medien erkenne ich nirgendwo. Bei einem Stil kommt es ja auf die Feinheiten und Nuancen an. Zumindest wenn es um das Texten geht, zeigt sich ChatGPT weder authentisch noch kreativ.

Wenn man ChatGPT die Anweisung gibt, humorvoll zu schreiben, haut die Software gerne sprachliche Plattitüden raus. Müsste ChatGPT jedesmal fünf Euro ins Schweinderl stecken, wenn es eine abgedroschene Redewendung verwendet, wäre die Kasse schnell voll.

Schlimmer noch: ChatGPT macht inhaltliche Fehler. Die ein Laie nicht unbedingt sofort merkt. Ich habe ChatGPT gebeten, einen Diabetes-Artikel mit Zitaten zu generieren. Was absurd ist, weil Zitate unbedingt mit dem Zitierenden abgeklärt werden sollten. Wozu ChatGPT mit Sicherheit nicht in der Lage ist.

Nun denn, was soll’s, einen Versuch ist es wert. Immerhin hat sich ChatGPT Professor Andreas Fritsche ausgesucht, ein renommierter Diabetes-Experte. Ob Herr Fritsche den Satz im Text wirklich jemals gesagt hat weiß ich nicht. Was ich allerdings weiß ist, dass Andreas Fritsche derzeit nicht der Präsident der Deutschen Diabetes Gesellschaft ist, so wie es ChatGPT behauptet. Vielmehr ist Fritsche Vizepräsident und Schatzmeister. Autsch!

Vielleicht kann man es so zusammenfassen: ChatGPT liefert Ware von der Stange, einheitliche Konfektionsgröße. Wer den Maßanzug haben will, etwas individuelles, besonderes, unterhaltendes, der schreibt doch besser selbst. Verwendet dafür ChatGPT aber als Ideengeber.

Und überprüft die Fakten. Und lässt einmal die Rechtschreib- und Grammatikkorrektur über den Text laufen. Zumindest in deutscher Sprache macht ChatGPT hin und wieder Grammatik-Fehler. Das können moderne Textverarbeitungsprogramme besser.

Noch, denn eins ist glaube ich klar: ChatGPT wird besser werden. Wohin das führt, weiß ich nicht. Aber vielleicht muss ich diesen Text schon in ein paar Monaten in den Mülleimer kippen – wenn eine neue Version der Software erscheint. Wenn die Macher von ChatGPT möglicherweise alle hier genannten Schwächen ausgemerzt haben. Wie hat es Robert Lepenies, Präsident der Karlshochschule International University in Karlsruhe, kürzlich im Fachmagazin c’t formuliert*: „Generell vermute ich, dass KI alle Tätigkeiten, die mit Text oder Bild zu tun haben, revolutionieren wird“. Wundern würde es mich nicht.

* Interview: Wie ChatGPT die Lehre verändert (https://www.heise.de/news/Interview-Wie-ChatGPT-die-Lehre-veraendert-7451975.html)

Von Burkhardt Röper, 17. Januar 2023 · Bild: Screenshots ChatGPT





Kontakt

Email

Email-Adresse

Social & Co.