top of page
  • Susann Mathis

Wundertrank oder Höllenbrühe

Die Verantwortung für K.I. liegt bei den Menschen

Seit Wochen erleben wir einen gewaltigen Hype um die neue Sprach-K.I., kein Tag vergeht, an dem nicht neue Erkenntnisse oder Tools das Wissen vom Vortag ablösen. Inmitten dieser neuen bunten Welt mit ihren unzähligen Möglichkeiten steht auch der Journalismus: zwischen fantastischen Effizienzwundern auf der einen und erschreckenden Manipulationsmöglichkeiten auf der anderen Seite.


Die Entwicklung leistungsfähiger Sprachmodelle wie ChatGPT, die Gespräche führen und Anweisungen ausführen können erlaubt es, immer mehr und immer schneller (journalistische) Inhalte zu erstellen und zu verbreiten. Und ja, sofern man die journalistischen Standards einhält, ist die K.I. nicht gefährlicher als eine Google-Suche oder eine Recherche bei Wikipedia, sollte man meinen. Aber auch Google und Wikipedia werden leider viel zu oft kritiklos abgeschrieben.


Die K.I.-Tools bergen beunruhigende Risiken der Verdummung und Manipulation: Sprachmodelle sind beeinflussbar, sie entwickeln „Akzente“, wie ihre Vorurteile und Interpretationen genannt werden, sie sind schamlose Plagiatoren, sie „halluzinieren“, d.h. sie schreiben im Text munter weiter, auch wenn sie keine Fakten mehr haben, und sie verbrauchen obendrein enorm viel Rechenleistung und damit Energie. Die Debatte um Regulierung hinkt weit hinterher.


Aktuell sind wir Zeug*innen einer rasanten Entwicklung, die neuen Werkzeuge können sowohl Wundertrank wie auch Höllenbrühe sein. Die Verantwortung dafür liegt bei den Menschen, die die sie entwickeln, einsetzen und kontrollieren -- einige Extreme sind im Folgenden beschrieben:

Routinen erleichtern versus Content-Mainstream verbreite(r)n:

​Der Wundertrank: Effizienzsteigerung für Journalist*innen

​Die Höllenbrühe: Bedrohung für journalistische Vielfalt

​K.I. wird Journalist*innen effizienter machen, indem sie automatisierte Prozesse und Routineaufgaben übernimmt und ihnen mehr Zeit für anspruchsvolle Aufgaben wie Recherche und Analyse gibt. Denn natürlich könnte man die Quelle des Hawkins-Zitats „K.I. ist wahrscheinlich das Beste oder das Schlimmste, was der Menschheit passieren kann." auch mit einer Suchmaschine finden, aber eine Frage im Chat führt viel schneller zum Ziel, als sich durch die Linkvorschläge von DuckDuckGo oder Google zu klicken. Die Hoffnung ist, dass wir lästige Aufgaben auslagern und uns auf die interessanten, kreativen, menschlichen Teile konzentrieren. In der Zwischenzeit kann K.I. automatisierte Prozesse und Routineaufgaben übernehmen, z.B. aus Daten oder Pressemitteilungen Kurznachrichten oder Schlagzeilen erstellen, aber auch Bildunterschriften, Hashtags oder Keywords für die Suchmaschinenoptimierung generieren. Sie kann auch Newsletter, Podcasts oder Social-Media-Posts aus bestehenden Inhalten erzeugen. Einige K.I.-Tools werden bereits seit längerer Zeit eingesetzt, etwa um Interviews zu transkribieren oder Rechtschreib-, Grammatik- und Stilfehler zu korrigieren. Aktuelle Tooltipps finden Sie in der Ausgabe 6-2023 des DJV-Magazins „Journalist“.

K.I. wird Journalist*innen in austauschbare "Content-Generatoren" verwandeln, was die Bedeutung ihrer Rolle als Informationsvermittler untergräbt. Dies wird die Abhängigkeit von großen Technologieunternehmen und Algorithmen verstärken, die bereits eine beunruhigende Kontrolle über den Informationsfluss ausüben. K.I.-Algorithmen greifen auf vordefinierte Muster und Trends zu, aber standardisierte und homogene Inhalte reduzieren journalistische Vielfalt und Kreativität. Auf der Strecke bleiben originäre Recherche, kreative Gestaltung, qualitative Analyse und kritische Reflexion. Mehr vom Gleichen, so die Befürchtung. Und zusätzlich: Plagiate, Arbeitsplatzvernichtung, Halluzinationen, Deep Fakes. Gravierend sind außerdem die Folgen für das menschliche Denkvermögen. Der Deutsche Ethikrat befürchtet den Verlust menschlicher Fähigkeiten. Der Literatur- und Medienwissenschaftler Roberto Simanowski formuliert, dass der Mensch im Schreiben Informationen und Meinungen sinnvoll kombiniert und so zu etwas gelangt, das man Erkenntnis oder Einsicht nennen kann. „Im Schreiben kommt der Mensch zu sich selbst“. Hier einige Quellen zum Anklicken: · Der Kollege Oskar Vitlif veröffentlicht Newsletter über K.I. · Das PDF mit der Stellungnahme des Ethikrats · Roberto Simanowski in den Blättern für deutsche und internationale Politik · Zum Hören: DJV-Podcast „Druckausgleich“


Personalisierte Information versus Einsperren in Echokammern

Der Wundertrank: K.I. optimiert personalisierte Inhalte

​Die Höllenbrühe: K.I. sperrt Leser*innen in Informationsblasen und Echokammern ein

Journalist*innen können K.I.-Tools nutzen, um Trends und relevante Themen zu identifizieren. K.I. hilft, die Bedürfnisse und Interessen des Publikums zu verstehen und erleichtert das Erstellen personalisierter Inhalte, die auf die Vorlieben und Interessen der Zuschauer*innen und Leser*innen zugeschnitten sind. Dies können beispielsweise Empfehlungen für Artikel, Videos oder Podcasts sein, die auf dem Leseverhalten, dem Standort oder dem Profil der Nutzer*innen basieren. Inhalte können ohne großen Aufwand an verschiedene Formate, Plattformen oder Geräte angepasst werden - sogar interaktive Inhalte oder individuelle Nachrichten oder Geschichten, die auf persönlichen Daten oder Ereignissen der Nutzer*innen basieren, können erstellt werden. So kann man die Nutzer*innen einbeziehen und ihnen Feedback- und Wahlmöglichkeiten bieten. Das Niveau von Erklärstücken kann an das Vorwissen der Leser*innen und Zuschauer*innen angepasst werden - so kann der gleiche Zusammenhang sowohl für Teenager als auch für Spezialist*innen erklärt werden.

K.I.-Tools orientieren sich an den Präferenzen und Vorurteilen der Nutzer*innen und erzeugen oder verstärken Echokammern, statt mit geprüften oder verifizierten Inhalten den Auftrag des Journalismus zu erfüllen Wenn Inhalte gefiltert und selektiert werden, können damit Leser*innen in personalisierte Informationsblasen eingesperrt werden. Das verringert Meinungsvielfalt und Pluralismus, da personalisierte Algorithmen nur Inhalte anzeigen, die den bestehenden Ansichten und Vorlieben der Leser*innen entsprechen oder sie verstärken. Es verstärkt Polarisierung und Konflikte, da personalisierte Algorithmen Inhalte ausblenden oder unterdrücken, die alternative oder widersprüchliche Perspektiven oder Fakten bieten könnten. Kritisches Denken und Urteilsvermögen werden geschwächt, da personalisierte Algorithmen emotional ansprechende oder sensationelle Inhalte gegenüber informativen oder sachlichen Inhalten bevorzugen. Nicht zuletzt produzieren Plattformen oder Anbieter in großem Umfang populäre Inhalte, um ihren kommerziellen oder politischen Interessen zu dienen. Nicht die Technologie an sich ist das Problem, sondern wie die Menschen sie nutzen. Es sind nicht die Algorithmen, sondern die menschlichen Vorurteile und Voreingenommenheiten, die zu Problemen im Einsatz von Künstlicher Intelligenz führen können.

Schnell versus oberflächlich

Der Wundertrank: Echtzeitberichterstatung dank K.I.

​Die Höllenbrühe: Geschwindigkeit verstärkt Sensationsgier

​K.I. ermöglicht eine Berichterstattung in Echtzeit, indem sie dabei hilft, Ereignisse schnell zu verfolgen und darüber zu berichten. Beispielsweise können bei der Ausbreitung von Naturkatastrophen, Epidemien oder Konflikten Daten aus verschiedenen Quellen wie Satelliten, Sensoren oder sozialen Medien in Echtzeit gesammelt und schnell analysiert werden. Die Kombination von Daten aus unterschiedlichen Quellen wie Umfragen, Statistiken oder sozialen Medien ermöglicht es, den Verlauf von Wahlen zu beschreiben; Börsen- und Wirtschaftsdaten helfen, Märkte und Trends zu beschreiben. Vieles davon wird bereits in der automatisierten Texterstellung genutzt. K.I. erleichtert aber auch die Aufdeckung von Skandalen oder Lügen, indem sie Daten aus verschiedenen Quellen wie Dokumenten oder sozialen Medien nutzt.

Geschwindigkeit trägt dazu bei, Sensationsgier und oberflächliche Berichterstattung zu verstärken, um die Aufmerksamkeit der Zuschauer*innen und Leser*innen zu gewinnen. Der Fluch des Wettbewerbs und die Verführung durch Geschwindigkeit machen Journalist*innen zu Komplizen eines Systems, das unterhalten will, dabei aber ethische, rechtliche oder professionelle Standards missachtet und verletzt, die die Zuschauer*innen und Leser*innen eigentlich schützen und respektieren sollten. Zu den Risiken gehören das Erzeugen falscher oder irreführender Schlagzeilen, Bilder oder Videos, das Verbreiten von Gerüchten, Klatsch oder Spekulationen und damit die Verstärkung von Vorurteilen, Stereotypen oder Hass, die die Zuschauer*innen und Leser*innen polarisieren und aufhetzen.


Faktencheck versus Fake News

Der Wundertrank: K.I. erkennt und korrigiert Fehler

​Die Höllenbrühe: K.I. manipuliert Nachrichten

Auch inhaltliche Fehler lassen sich mit K.I. erkennen und korrigieren. Sie kann falsche oder irreführende Zahlen, Daten, Statistiken und auch Zitate erkennen, aber auch Aussagen, die die Objektivität oder Fairness eines Artikels beeinträchtigen, und sie kann gefälschte Bilder, Videos oder Grafiken identifizieren und falsche Quellen oder Links im besten Fall sogar löschen. Ein Beispiel ist das Projekt “noFake”, das K.I. und Crowdwork kombiniert. Wissenschaftler der Ruhr-Universität Bochum und der Technischen Universität Dortmund sowie das Recherchezentrum CORRECTIV wollen damit effektiver gegen Desinformation im Netz vorgehen. Im Projekt DeFaktS wird künstliche Intelligenz (K.I.) darauf trainiert, anhand von extrahierten Nachrichten aus verdächtigen sozialen Medien und Messenger-Gruppen typische Desinformationstreiber und Stilmerkmale zu erkennen. Die so trainierte K.I. bildet dann einen Baustein für eine XAI (Explainable Artificial Intelligence), mit deren Hilfe eine App die Nutzer von Online-Diensten transparent über mögliche Desinformationen informieren und warnen kann. Das sind nur zwei der Projekte, die das Bundesministerium für Bildung und Forschung (BMBF) im Kampf gegen Fake News fördert. Hier ist die vollständige Liste der Projekte

K.I.-Algorithmen können aber auch eingesetzt werden, um Nachrichteninhalte zu manipulieren oder zu zensieren - mit dem Ziel, bestimmten politischen oder wirtschaftlichen Interessen zu dienen. Es gibt verschiedene Möglichkeiten, wie K.I. eingesetzt werden kann, um solche Fake News zu verbreiten. Deepfakes zum Beispiel sind Videos oder Bilder, die mithilfe von K.I. erstellt wurden und Personen in kompromittierenden Situationen zeigen oder ihnen falsche Aussagen in den Mund legen. Wie weit das gehen kann, hat man verstanden, als derPapst in einer weißen Daunenjacke gesehen wurde. Eine andere Bedrohung ist der Einsatz von Bots - automatisierten Programmen, die in sozialen Netzwerken eingesetzt werden können, um Nachrichten zu verbreiten - auch gefälschte oder manipulierte. Sebastian Meineck von netzpolitik.org hält den Fokus auf diese rein technologische Seite allerdings für falsch, denn „Das Handwerk hinter Desinformation und Online-Betrug ist auch ohne moderne Chatbots schon sehr ausgefuchst.“ Das Problem liege vor allem in der Leichtgläubigkeit. Sein Artikel dazu: Das Hype-Theater um moderne Chatbots.

Multimedial versus emotionslos

Der Wundertrank: multimediale Innovationen

Die Höllenbrühe: K.I.-Gleichgültigkeit

​Journalist*innen können K.I. nutzen, um Inhalte multimedial zu präsentieren. Sie können neue Formate ausprobieren, vielleicht sogar Gedichte oder Geschichten schreiben. Besonders interessant sind die Möglichkeiten im Bereich des datengetriebenen Journalismus. Komplexe Themen wie Klimawandel oder Pandemien lassen sich anschaulicher erklären, zum Beispiel mit animierten Diagrammen, interaktiven Grafiken oder Simulationen. Große Datenmengen wie Wahlergebnisse, Finanzberichte oder Umfragen lassen sich mit K.I. analysieren und visualisieren. Und man kann die Ergebnisse zielgruppengerecht aufbereiten - für Anfänger*innen ebenso wie für Expert*innen.

Andererseits können Algorithmen die Nuancen und Emotionen menschlicher Geschichten nicht erfassen. Ethische oder soziale Fragen können vereinfacht oder ignoriert werden. Der Einsatz von K.I. kann zu einem Verlust an menschlicher Empathie und Sensibilität führen. Sie kann auch zu einer Beeinträchtigung oder gar Unterdrückung kreativer oder kritischer Fähigkeiten führen. Algorithmen können Inspirationen und Herausforderungen nicht in ihrer menschlichen Dimension erfassen.

FRAGEN UND ANTWORTEN

F: WIE FUNKTIONIERT EIN CHATBOT?

A: Das Funktionsprinzip basiert auf einem tiefen neuronalen Netzwerk, das darauf trainiert wurde, natürliche Sprache zu verstehen und darauf zu antworten. Das Training basiert auf dem maschinellen Lernen und verwendet eine Methode namens "unsupervised learning" (unüberwachtes Lernen).

Während des Trainings wird das Modell mit Textpaaren gefüttert, bestehend aus einer Eingabe (z. B. eine Frage oder ein Satz) und dem dazugehörigen gewünschten Ausgabetext (z. B. die passende Antwort oder Fortsetzung). So lernt das System, statistische Muster zu erfassen und Vorhersagen darüber zu treffen, welcher Text am besten auf eine gegebene Eingabe passt. Das Sprachmodell kann nicht selber denken, es kombiniert Internet-Wissen.

F: WO SOLL MAN ANFANGEN, SICH ZU INFORMIEREN?

A: Zum einen bei der Tageszeitung Ihres Vertrauens. Darüber hinaus gibt es wissenschaftliche Publikationen, Blogs, Podcasts und Online-Kurse, die uns einen fundierten Überblick über die Grundlagen und Anwendungen von K.I. geben können. Einige Beispiele sind:

- Machine Learning for Everyone, ein Blogpost von Vasiliy Zukanov, der die wichtigsten Konzepte und Begriffe des maschinellen Lernens erklärt (englisch).

- K.I.-Campus, eine Lernplattform des Bundesministeriums für Bildung und Forschung (BMBF) und des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), die verschiedenen Kurse zu K.I. anbietet.

- Elements of AI, der kostenlose und umfangreiche Online-Kurs der Universität Helsinki, bietet eine Einführung in die K.I..

- Selber testen: Außerdem ist es am besten, die Tools selbst auszuprobieren, zum Beispiel bei ChatGPT ChatGPT (openai.com), bei den Bing-Chat im Microsoft-Edge-Browser, erste Bilder kann man erstellen bei Bing/create.

F: ICH HABE ES AUSPROBIERT, BIN ABER MIT DEN ERGEBNISSEN NICHT ZUFRIEDEN.“

A: Das geht fast allen zunächst so. Dafür gibt es in der Regel verschiedene Ursachen:

- ChatGPT ist keine Suchmaschine. Seine Datenbasis reicht bislang nur bis Sept 21. Auf Fragen, die Ereignisse danach betreffen, kann das System nicht antworten.

- Die Antworten sind nur so gut wie die Fragen, das so genannte „Prompting“. Prompting bedeutet, einem Sprachmodell wie ChatGPT eine Eingabe zu geben, die es anweist, eine bestimmte Aufgabe auszuführen oder eine bestimmte Antwort zu geben.

F: WIE LERNT MAN DIESES „PROMPTING“?

A: Prompting, so heißt es, sei eine Kunst und eine Wissenschaft zugleich. Es erfordere sowohl Kreativität als auch Präzision. Am besten lernt man es durch Üben. Man kann aber auch den Chatbot bitten, ein paar Empfehlungen auszusprechen. Übrigens: Man kann auch immer weiter nachfragen: Der Inhalt der Ursprungsfrage muss dabei nicht wiederholt werden, ChatGPT baut die Antwort auf dem ersten Suchbefehl auf, aktuell sind etwa bei BING 20 Rückfragen möglich.

· Gute Ideen und Quellen für Prompts hat der Kollege Oskar Vitlif hier zusammengestellt

· Ein interessantes Experiment dokumentiert der „Journalist“.

BEISPIEL: QUELLEN FINDEN MIT BING

MENSCH: FINDE DIE QUELLE FÜR FOLGENDES ZITAT: „KI IST WAHRSCHEINLICH DAS BESTE ODER DAS SCHLIMMSTE, WAS DER MENSCHHEIT PASSIEREN KANN." STEPHEN HAWKING HALLO, DAS IST BING. ICH KANN VERSUCHEN, DIE QUELLE FÜR DIESES ZITAT ZU FINDEN: „KI IST WAHRSCHEINLICH DAS BESTE ODER DAS SCHLIMMSTE, WAS DER MENSCHHEIT PASSIEREN KANN." HIER IST, WAS ICH GEFUNDEN HABE:

- Das Zitat wird dem berühmten Physiker **Stephen Hawking** zugeschrieben, der sich mehrmals kritisch zu den Potenzialen und Risiken der künstlichen Intelligenz geäußert hat¹²³.

- Das Zitat stammt aus einer Rede, die Hawking anlässlich der Eröffnung des **Leverhulme Centre for the Future of Intelligence (CFI)** am 19. Oktober 2016 gehalten hat¹². Das CFI ist ein akademisches Institut, das sich der Erforschung der Zukunft der künstlichen Intelligenz widmet.

- Das Zitat wurde von verschiedenen Medien und Online-Plattformen aufgegriffen und verbreitet, wie zum Beispiel der **Computerwoche**¹, dem Blog **Artificial Creativity**² oder dem sozialen Netzwerk **LinkedIn**³.

Quelle: Unterhaltung mit Bing, 4.7.2023(1) Hawking: AI ist das Beste für die Menschen - computerwoche.de. https://www.computerwoche.de/a/hawking-ai-ist-das-beste-fuer-die-menschen-oder-das-schlechteste,3325701 Zugegriffen 4.7.2023.

(2) Die besten Zitate über Künstliche Intelligenz - Artificial Creativity. https://katzlberger.ai/2020/03/13/die-besten-zitate-ueber-kuenstliche-intelligenz-in-deutscher-sprache/ Zugegriffen 4.7.2023.

(3) "KI ist wahrscheinlich das Beste oder das Schlimmste, was der .... https://de.linkedin.com/pulse/ki-ist-wahrscheinlich-das-beste-oder-schlimmste-der-passieren-scharf Zugegriffen 4.7.2023.

MENSCH: KANNST DU DAS MANUSKRIPT DER REDE FINDEN? HALLO, DAS IST BING. ICH KANN VERSUCHEN, DAS MANUSKRIPT DER REDE ZU FINDEN, IN DER STEPHEN HAWKING DAS ZITAT GESAGT HAT. HIER IST, WAS ICH GEFUNDEN HABE:

- Das Manuskript der Rede ist auf der Website des **Leverhulme Centre for the Future of Intelligence (CFI)** verfügbar². Dort kann man auch eine Videoaufnahme der Rede ansehen.

- Das Manuskript der Rede ist auch auf der Website der **University of Cambridge** verfügbar¹. Dort kann man auch eine Zusammenfassung der Rede lesen.

- Das Manuskript der Rede ist auch auf der Website des **Guardian** verfügbar³. Dort kann man auch einen Artikel über die Rede lesen.

Quelle: Unterhaltung mit Bing, 4.7.2023(1) LCFI Launch: Stephen Hawking. http://lcfi.ac.uk/resources/cfi-launch-stephen-hawking/ Zugegriffen 4.7.2023.

(2) “The best or worst thing to happen to humanity” - Stephen Hawking .... https://www.cam.ac.uk/research/news/the-best-or-worst-thing-to-happen-to-humanity-stephen-hawking-launches-centre-for-the-future-of Zugegriffen 4.7.2023.


Der Artikel ist von Susann Mathis, wurde erstellt mit punktueller Unterstützung von ChatGPT und ist erschienen im Blickpunkt 2-2023


32 Ansichten1 Kommentar

Aktuelle Beiträge

Alle ansehen
bottom of page