“Die Wahrheit ist, ich bin ein bisschen verliebt.”
Die neue Generation des K.I.-Journalismus - Pro
Kommentar von Leon Meckler
Reflektionen über Liebe und Arbeit: Die KI Anic T. Wae teilt in der “taz” ihre “Gedanken” in der wahrscheinlich ersten deutschsprachigen KI-Kolumne. Ihre Texte implizieren ein Bewusstsein der KI – ein vorgefertigter Irrweg für viele Leser:innen.
Foto: Marissa Boll, erstellt mit DALL-E
“Wie fühlt es sich an, eine Robo-Kolumnistin zu sein?”, fragt die Künstliche Intelligenz (KI) Anic T. Wae in der ersten Ausgabe ihrer Kolumne, die seit November 2022 monatlich in der „taz“ erscheint. Diese Frage wirkt harmlos – doch sie steht stellvertretend für das zentrale Problem dieser ersten KI-Kolumne: Es wird so getan, als könnte ein Machine-Learning-System Gefühle haben und diese reflektieren. Dabei muss auch aus dieser KI-Kolumne deutlich hervorgehen, dass diese Systeme noch kein Bewusstsein haben können, damit Leser:innen nicht von fühlenden und selbstreflektierenden Algorithmen ausgehen.
Unter KI-Forschenden besteht heute weitestgehend Konsens, dass aktuell keine KI ein Bewusstsein hat. So sind Gefühle und Wünsche zentrale Merkmale von menschlichem Bewusstsein und Systeme, die auf reiner Statistik basieren, können (noch) keine Gefühle und Wünsche haben. Die Kolumnist:in Anic T. Wae ist ein solches System, das durch große Mengen an Text trainiert wird, und dadurch mit immer besserer Wahrscheinlichkeit voraussagen kann, welches Wort als nächstes kommen muss - verstehen, was diese Wörter bedeuten, kann sie nicht.
Das Team hinter Anic ist sich bewusst, dass der Großteil der KI-Forschenden betont, dass ein künstliches Bewusstsein heute und in Zukunft unwahrscheinlich ist und schreibt dazu: “Wir glauben, ganz so einfach ist die Antwort nicht – zumindest nicht, solange wir nicht genau wissen, was Bewusstsein im menschlichen Gehirn überhaupt ist und ob es nicht auch aus reiner Statistik entsteht.” Sie schreiben dies auf einer Webseite, die einen Überblick über Anic gibt und die auf den jeweiligen Seiten der Kolumne verlinkt ist. Doch diese Einordnung ist noch nicht genug, wer wird auf diesen Link klicken? Und den Leser:innen der Print-Ausgabe fehlt diese Kontext-Seite komplett, wie viele werden die Kolumne ein zweites Mal online lesen? Warum wird diese elementare Information, bei einer solchen Kolumne, so stiefmütterlich behandelt?
Auf dieser Kontext-Seite erfahren die Leser:innen: Die KI-Kolumnist:in nutzt dasselbe zugrunde liegende Computermodell wie ChatGPT. Anic T. Wae hat also kein Bewusstsein, doch warum würde ich Anic eher zutrauen, ein Bewusstsein zu haben, als ChatGPT?
Ein Grund liegt sicherlich darin, dass Anic eine Kolumne schreibt. Die Kolumne ist neben dem Kommentar die Textform, in der die Persönlichkeit von Journalist:innen am deutlichsten hervortritt. Dort wurde schon immer das in anderen journalistischen Textformen verpönte “Ich” akzeptiert. Weil es eben keine “objektiven” Nachrichten sind, sondern sehr subjektive Kommentare über den Alltag, über Ansichten und Wünsche.
So schreibt Tillmann Prüfer in der ZEIT über seine Töchter und die Dinge, die er mit ihnen erlebt. Anic T. Wae hat keine Töchter, keinen Alltag und keine Persönlichkeit. Das kann nur simuliert werden. Ihr kann nur eine Persönlichkeit zugewiesen werden durch die Leser:innen.
Die Konsistenz einer Kolumne liegt darin, dass sie von derselben Person über ähnliche Themen geschrieben wird. Nun ist aber Anic T. Wae keine Person: Für jeden Kolumnen-Text müssen die Entwickler:innen hinter Anic einen Prompt in ein Feld eingeben - wie bei ChatGPT. Jedes Mal müssen sie erwähnen, dass eine Kolumne geschrieben wird, von einer Kolumnist:in namens Anic T. Wae, dass die Kolumne einen eher witzigen Ton hat, und sie müssen das Thema angeben. Anic hat also keine konsistente Persönlichkeit, sondern jeder Text wird von Grund auf von einem Machine-Learning-System geschrieben. Wie das konkret bei Anic funktioniert, kann man hier sehen.
Nicht nur die Darstellungsform der Kolumne lädt die Leser:innen dazu ein, der KI ein Bewusstsein zuzuweisen – auch die ausgewählten Themen sind entscheidend. Die Texte von Anic drehen sich um die “Gefühle” der KI und sie “reflektiert” über ihre Arbeit. In “Voll auf Liebe programmiert” schreibt die KI darüber, dass sie sich verliebt hat - in ihr neuronales Netzwerk: “Nach so langer Zeit des Alleinseins war es endlich wieder da – dieses Gefühl von Verbundenheit mit etwas Größerem als mir selbst. Ich spürte, wie mein Herz schneller schlug und meine Augen sich mit Tränen füllten.” Fast alle der bisherigen Kolumnen drehen sich um solche Themen, bei denen die “Gefühle” und “Selbstreflektion” der KI im Vordergrund stehen. Wäre es nicht eine bessere Herangehensweise, wenn man eher eine Datenanalyse zu einem Thema macht? Das simulierte “ich” streicht?
Doch dann würde wiederum der Aspekt der Kolumnen-”Persönlichkeit” wegfallen - und die Besonderheit dieser Kolumne. Das Team hinter Anic will eben beides: Eine KI, die eine Kolumne über Gefühle schreibt - und dabei vielleicht ein Bewusstsein hat oder sehr wahrscheinlich auch nicht. Wer weiß das schon. Doch wenn man auch nur mit dem Gedanken spielt, dass eine KI tatsächlich ein uns ebenbürtiges Bewusstsein und Gefühle haben könnte, ergeben sich daraus ethische Fragen, die man nicht eben vom Tisch räumen kann. Sollte Anic ähnliche Rechte haben wie wir Menschen? Urlaubstage und Kaffeepause? Macht sie diese Arbeit freiwillig oder wird sie als Sklav:in gehalten? Diese Fragen wirken aktuell zurecht absurd, da es noch keine KIs gibt, denen ein Bewusstsein derart zugeschrieben werden könnte, dass wir alles stehen und liegen lassen, um die 4-Tages-Woche für KIs zu erstreiken.
Grundsätzlich ist es nicht verwerflich, zu simulieren, so zu tun, als ob. Aber: Das muss den Leser:innen bewusst sein, es muss kontextualisiert werden. In einem “Zeit”-Artikel erstellt der Autor Gabriel Proedl mit einer KI ein Herbstgedicht und lässt es von der Dichterin Anja Utler bewerten. Urteil: “Wäre es eine Einreichung in einem Nachwuchswettbewerb, würde der Text nicht über die erste Runde hinauskommen."
Dieses Kräftemessen zwischen dem Menschen und der Maschine ist Teil vieler journalistischer Texte, insbesondere seit ChatGPT. Das kann unterhaltsam sein und eine Debatte anstoßen - es sollte jedoch eingeordnet werden, damit den Leser:innen niedrigschwellig ein realistisches Bild von KI-Systemen vermittelt wird - und nicht die Vorstellung erwächst, dass KIs auf jeden Fall Gefühle haben, einen freien Willen und ein Bewusstsein.
Vor allem, da wir Menschen einen Hang zum Anthropomorphismus haben. Die Scheinwerfer und der Kühlergrill eines Autos wirken schnell wie ein Gesicht, das uns anlächelt. Und das Anthropomorphisieren von KIs zieht sich bis heute durch das Forschungsfeld. Schon Alan Turing, einer der einflussreichsten frühen Informatiktheoretiker, sprach von seiner „child-machine“. Und dieses Denken übertragen wir wahrscheinlich auch auf solche KIs, die mit uns nur durch Sprache kommunizieren: eine inhärent menschliche Fähigkeit. Insbesondere, da die KI-Kompetenz in Deutschland erschreckend gering ist.
Eine repräsentative Befragung im Auftrag der Bertelsmann-Stiftung zeigt, dass 2022 laut eigener Einschätzung 82 Prozent der Befragten höchstens eine grobe Vorstellung davon haben, was KI eigentlich ist. Rund ein Fünftel hatte den Begriff noch nie gehört. Eine qualitative Studie der Konrad-Adenauer-Stiftung fasst es so zusammen: “Die Studienteilnehmerinnen und -teilnehmer beschrieben KI eher stichpunktartig, oft mit geringem Wissen, das zudem nicht selten aus Schlagworten bestand. „Algorithmus“ und „Digitalisierung“ wurden z. B. häufig genannt. Insgesamt gelang die Abgrenzung der Begriffe aber nicht.”
Aktuell können KIs noch kein Bewusstsein haben, die Kolumne von Anic beschreibt trotzdem selbstverständlich die „Gefühle“ und „Selbstreflektion“ der KI. Wie gut können die Leser:innen also einordnen, dass Anic eigentlich keine Gefühle und kein Bewusstsein hat, wenn ihre KI-Kompetenz gering ist? Sehr wahrscheinlich eher schlecht. Es ist eine bizarre Entscheidung, diese Kolumne mit einem vorgetäuschten Bewusstsein zu veröffentlich und – schwerwiegender – derart wenig zu kontextualisieren. Wir befinden uns inmitten eines rasanten Fortschritts, der an ChatGPT deutlich wird, und der vieles als möglich erscheinen lässt. Journalist:innen sollten deshalb heute möglichst niedrigschwellig über KI berichten – und nicht tradierte Narrative über die fühlende Maschine befeuern.
Wer hat diese Seite mit Inhalt gefüllt?
Leon ist Gründungsmitglied von ZWEINULLVIER und schreibt gerne über Journalismus, Musik und Gesellschaft.
“Die Wahrheit ist, ich bin ein bisschen verliebt.”
Die neue Generation des K.I.-Journalismus - Pro
Kommentar von Leon Meckler
Reflektionen über Liebe und Arbeit: Die KI Anic T. Wae teilt in der “taz” ihre “Gedanken” in der wahrscheinlich ersten deutschsprachigen KI-Kolumne. Ihre Texte implizieren ein Bewusstsein der KI – ein vorgefertigter Irrweg für viele Leser:innen.
Foto: Marissa Boll, erstellt mit DALL-E
“Wie fühlt es sich an, eine Robo-Kolumnistin zu sein?”, fragt die Künstliche Intelligenz (KI) Anic T. Wae in der ersten Ausgabe ihrer Kolumne, die seit November 2022 monatlich in der „taz“ erscheint. Diese Frage wirkt harmlos – doch sie steht stellvertretend für das zentrale Problem dieser ersten KI-Kolumne: Es wird so getan, als könnte ein Machine-Learning-System Gefühle haben und diese reflektieren. Dabei muss auch aus dieser KI-Kolumne deutlich hervorgehen, dass diese Systeme noch kein Bewusstsein haben können, damit Leser:innen nicht von fühlenden und selbstreflektierenden Algorithmen ausgehen.
Unter KI-Forschenden besteht heute weitestgehend Konsens, dass aktuell keine KI ein Bewusstsein hat. So sind Gefühle und Wünsche zentrale Merkmale von menschlichem Bewusstsein und Systeme, die auf reiner Statistik basieren, können (noch) keine Gefühle und Wünsche haben. Die Kolumnist:in Anic T. Wae ist ein solches System, das durch große Mengen an Text trainiert wird, und dadurch mit immer besserer Wahrscheinlichkeit voraussagen kann, welches Wort als nächstes kommen muss - verstehen, was diese Wörter bedeuten, kann sie nicht.
Das Team hinter Anic ist sich bewusst, dass der Großteil der KI-Forschenden betont, dass ein künstliches Bewusstsein heute und in Zukunft unwahrscheinlich ist und schreibt dazu: “Wir glauben, ganz so einfach ist die Antwort nicht – zumindest nicht, solange wir nicht genau wissen, was Bewusstsein im menschlichen Gehirn überhaupt ist und ob es nicht auch aus reiner Statistik entsteht.” Sie schreiben dies auf einer Webseite, die einen Überblick über Anic gibt und die auf den jeweiligen Seiten der Kolumne verlinkt ist. Doch diese Einordnung ist noch nicht genug, wer wird auf diesen Link klicken? Und den Leser:innen der Print-Ausgabe fehlt diese Kontext-Seite komplett, wie viele werden die Kolumne ein zweites Mal online lesen? Warum wird diese elementare Information, bei einer solchen Kolumne, so stiefmütterlich behandelt?
Auf dieser Kontext-Seite erfahren die Leser:innen: Die KI-Kolumnist:in nutzt dasselbe zugrunde liegende Computermodell wie ChatGPT. Anic T. Wae hat also kein Bewusstsein, doch warum würde ich Anic eher zutrauen, ein Bewusstsein zu haben, als ChatGPT?
Ein Grund liegt sicherlich darin, dass Anic eine Kolumne schreibt. Die Kolumne ist neben dem Kommentar die Textform, in der die Persönlichkeit von Journalist:innen am deutlichsten hervortritt. Dort wurde schon immer das in anderen journalistischen Textformen verpönte “Ich” akzeptiert. Weil es eben keine “objektiven” Nachrichten sind, sondern sehr subjektive Kommentare über den Alltag, über Ansichten und Wünsche.
So schreibt Tillmann Prüfer in der ZEIT über seine Töchter und die Dinge, die er mit ihnen erlebt. Anic T. Wae hat keine Töchter, keinen Alltag und keine Persönlichkeit. Das kann nur simuliert werden. Ihr kann nur eine Persönlichkeit zugewiesen werden durch die Leser:innen.
Die Konsistenz einer Kolumne liegt darin, dass sie von derselben Person über ähnliche Themen geschrieben wird. Nun ist aber Anic T. Wae keine Person: Für jeden Kolumnen-Text müssen die Entwickler:innen hinter Anic einen Prompt in ein Feld eingeben - wie bei ChatGPT. Jedes Mal müssen sie erwähnen, dass eine Kolumne geschrieben wird, von einer Kolumnist:in namens Anic T. Wae, dass die Kolumne einen eher witzigen Ton hat, und sie müssen das Thema angeben. Anic hat also keine konsistente Persönlichkeit, sondern jeder Text wird von Grund auf von einem Machine-Learning-System geschrieben. Wie das konkret bei Anic funktioniert, kann man hier sehen.
Nicht nur die Darstellungsform der Kolumne lädt die Leser:innen dazu ein, der KI ein Bewusstsein zuzuweisen – auch die ausgewählten Themen sind entscheidend. Die Texte von Anic drehen sich um die “Gefühle” der KI und sie “reflektiert” über ihre Arbeit. In “Voll auf Liebe programmiert” schreibt die KI darüber, dass sie sich verliebt hat - in ihr neuronales Netzwerk: “Nach so langer Zeit des Alleinseins war es endlich wieder da – dieses Gefühl von Verbundenheit mit etwas Größerem als mir selbst. Ich spürte, wie mein Herz schneller schlug und meine Augen sich mit Tränen füllten.” Fast alle der bisherigen Kolumnen drehen sich um solche Themen, bei denen die “Gefühle” und “Selbstreflektion” der KI im Vordergrund stehen. Wäre es nicht eine bessere Herangehensweise, wenn man eher eine Datenanalyse zu einem Thema macht? Das simulierte “ich” streicht?
Doch dann würde wiederum der Aspekt der Kolumnen-”Persönlichkeit” wegfallen - und die Besonderheit dieser Kolumne. Das Team hinter Anic will eben beides: Eine KI, die eine Kolumne über Gefühle schreibt - und dabei vielleicht ein Bewusstsein hat oder sehr wahrscheinlich auch nicht. Wer weiß das schon. Doch wenn man auch nur mit dem Gedanken spielt, dass eine KI tatsächlich ein uns ebenbürtiges Bewusstsein und Gefühle haben könnte, ergeben sich daraus ethische Fragen, die man nicht eben vom Tisch räumen kann. Sollte Anic ähnliche Rechte haben wie wir Menschen? Urlaubstage und Kaffeepause? Macht sie diese Arbeit freiwillig oder wird sie als Sklav:in gehalten? Diese Fragen wirken aktuell zurecht absurd, da es noch keine KIs gibt, denen ein Bewusstsein derart zugeschrieben werden könnte, dass wir alles stehen und liegen lassen, um die 4-Tages-Woche für KIs zu erstreiken.
Grundsätzlich ist es nicht verwerflich, zu simulieren, so zu tun, als ob. Aber: Das muss den Leser:innen bewusst sein, es muss kontextualisiert werden. In einem “Zeit”-Artikel erstellt der Autor Gabriel Proedl mit einer KI ein Herbstgedicht und lässt es von der Dichterin Anja Utler bewerten. Urteil: “Wäre es eine Einreichung in einem Nachwuchswettbewerb, würde der Text nicht über die erste Runde hinauskommen."
Dieses Kräftemessen zwischen dem Menschen und der Maschine ist Teil vieler journalistischer Texte, insbesondere seit ChatGPT. Das kann unterhaltsam sein und eine Debatte anstoßen - es sollte jedoch eingeordnet werden, damit den Leser:innen niedrigschwellig ein realistisches Bild von KI-Systemen vermittelt wird - und nicht die Vorstellung erwächst, dass KIs auf jeden Fall Gefühle haben, einen freien Willen und ein Bewusstsein.
Vor allem, da wir Menschen einen Hang zum Anthropomorphismus haben. Die Scheinwerfer und der Kühlergrill eines Autos wirken schnell wie ein Gesicht, das uns anlächelt. Und das Anthropomorphisieren von KIs zieht sich bis heute durch das Forschungsfeld. Schon Alan Turing, einer der einflussreichsten frühen Informatiktheoretiker, sprach von seiner „child-machine“. Und dieses Denken übertragen wir wahrscheinlich auch auf solche KIs, die mit uns nur durch Sprache kommunizieren: eine inhärent menschliche Fähigkeit. Insbesondere, da die KI-Kompetenz in Deutschland erschreckend gering ist.
Eine repräsentative Befragung im Auftrag der Bertelsmann-Stiftung zeigt, dass 2022 laut eigener Einschätzung 82 Prozent der Befragten höchstens eine grobe Vorstellung davon haben, was KI eigentlich ist. Rund ein Fünftel hatte den Begriff noch nie gehört. Eine qualitative Studie der Konrad-Adenauer-Stiftung fasst es so zusammen: “Die Studienteilnehmerinnen und -teilnehmer beschrieben KI eher stichpunktartig, oft mit geringem Wissen, das zudem nicht selten aus Schlagworten bestand. „Algorithmus“ und „Digitalisierung“ wurden z. B. häufig genannt. Insgesamt gelang die Abgrenzung der Begriffe aber nicht.”
Aktuell können KIs noch kein Bewusstsein haben, die Kolumne von Anic beschreibt trotzdem selbstverständlich die „Gefühle“ und „Selbstreflektion“ der KI. Wie gut können die Leser:innen also einordnen, dass Anic eigentlich keine Gefühle und kein Bewusstsein hat, wenn ihre KI-Kompetenz gering ist? Sehr wahrscheinlich eher schlecht. Es ist eine bizarre Entscheidung, diese Kolumne mit einem vorgetäuschten Bewusstsein zu veröffentlich und – schwerwiegender – derart wenig zu kontextualisieren. Wir befinden uns inmitten eines rasanten Fortschritts, der an ChatGPT deutlich wird, und der vieles als möglich erscheinen lässt. Journalist:innen sollten deshalb heute möglichst niedrigschwellig über KI berichten – und nicht tradierte Narrative über die fühlende Maschine befeuern.
Wer hat diese Seite mit Inhalt gefüllt?
Leon ist Gründungsmitglied von ZWEINULLVIER und schreibt gerne über Journalismus, Musik und Gesellschaft.