Algorithmen scannen in sekundenschnelle MRT-Bilder und erkennen Tumore. Sprachmodelle wie GPT 4 bestehen reihenweise juristische Examina, mit AI gemanagte Fonds outperformen den Markt. Und das könnte erst der Anfang sein. Schon kursieren Gerüchte, Googles kommendes generatives KI-Modell Gemini werde 20-fach so potent sein wie OpenAIs ChatGPT4. Schöne neue Welt also? Oder doch genau das Gegenteil? Immerhin warnte kürzlich sogar einer der Gründer von OpenAI vor einer „Superintelligenz“, die die Menschheit entmachten könnte.
Wie verändert KI den Journalismus?
Auch wenn es so weit dann hoffentlich doch nicht kommen wird: Es steht fest, dass KI unser Leben in vielen Bereichen nachhaltig verändern wird. Besonders für die Medien ergeben sich ganz neue Herausforderungen, wenn eine Maschine auf Anweisung Informationen sammeln, sortieren und in eine flüssige, leicht konsumierbare Form bringen kann.
Erwächst dem Journalismus, so wie wir ihn bisher kennen und verstehen, eine übermächtige Konkurrenz? Oder wird angesichts einer zu erwartenden Flut von KI-generierten Inhalten ein echter, von erfahrenen Journalisten erstellter Artikel, der exklusive Informationen und die kluge Einordnung von Fakten und Entwicklungen in den Mittelpunkt stellt künftig noch wertvoller als bisher? Denn bei aller (künstlichen) Intelligenz, die Google und Co ihren Maschinen einhauchen, beruht doch jeder KI-Text nur auf bereits bekannten Informationen, weil kein Chatbot eigenständig recherchiert und mit echten Menschen spricht, sondern nur Datenbanken und das Internet durchforstet.
Andererseits birgt KI natürlich auch für Medien großes Potenzial: Sie kann wiederkehrende Arbeiten übernehmen wie zum Beispiel das Suchen von passenden Schlagworten zu einem Artikel. Sie kann Texte übersetzen, sie kann helfen, Lesern passgenau die Inhalte zu präsentieren, die sie wirklich interessieren. Journalismus, sagte der Axel-Springer-Vorstandsvorsitzende Mathias Döpfner im Mai dieses Jahres, werde durch generative künstliche Intelligenz entweder besser – oder zerstört. Wir bei WELT arbeiten intensiv daran, dass die erste Alternative Realität wird.
Ein WELT-Artikel wird von WELT-Redakteuren recherchiert und geschrieben
Aus unserer Sicht ist es entscheidend, dass sich Journalisten und Medien nicht nur auf den durch KI verursachten Wandel einlassen, sondern ihn aktiv begleiten – und für sich zum Wohle unserer Leser und Nutzer definieren. WELT versteht KI als eine Chance, journalistisches Arbeiten zu verbessern und – stets unter Aufsicht und Verantwortung von Menschen – neue Wege zu ermöglichen. Im Mittelpunkt stehen dabei weiter die Prinzipien, die unsere journalistische Arbeit zugrunde liegen: Recherche und Transparenz, Unabhängigkeit und Wahrheitsverpflichtung. Bei WELT gilt: Es werden bis auf standardisierte Meldungen (siehe unten) keine kompletten Texte von künstlicher Intelligenz geschrieben – Artikel, die bei WELT erscheinen, sind von Mitarbeitern und Redakteuren nach höchsten journalistischen Standards verfasst und recherchiert.
Unser Chatbot WELTGO!
Einen Sonderfall stellt unser neuer KI-Chatbot WeltGO! dar. Hier nutzen wir ChatGPT4, damit Leser sich beispielsweise Texte in Kurzform darstellen lassen können, aber auch, um ihnen ganze Themenwelten und journalistische Inhalte mithilfe der KI in einer neuen Form zugänglich zu machen. Wichtig ist hier: Es handelt sich um eine Beta-Version, die auch mal Fehler machen kann. Genau beschrieben haben wir dieses neue Angebot hier.
Wo Algorithmen eingesetzt werden
Zur Generierung von Texten und Textteilen standardisierter Rubriken wie Aktienkursen, Sportergebnissen oder Wahlergebnisberichten kann KI allerdings zum Einsatz kommen. Solche Texte veröffentlichen wir bereits seit geraumer Zeit mithilfe von Sprachsoftware (Beispiele finden Sie etwa hier unter der Rubrik Spielberichte 3. Liga, wobei selbstverständlich darauf hingewiesen wird, dass es sich um automatisierte Berichte handelt). Auch bei der Suche nach Schlagwörtern und Überschriftenvorschlägen können uns Sprachmodelle helfen. Außerdem verwenden wir KI, um unseren Usern etwa automatisierte Newsletter mit den Artikeln unserer Autoren oder solche zu bestimmten Themen anbieten zu können – hier erstellen sogenannte Large Language Models Zusammenfassungen der Artikel, die aber immer von den Redakteuren überprüft und gegebenenfalls korrigiert werden. Einer dieser Newsletter ist etwa der des Kollegen Philipp Vetter:
Ein weiterer Fall, in dem wir Algorithmen verwenden, ist die automatisierte Überprüfung von Kommentaren, um sicherzustellen, dass diese den Nutzungsregeln entsprechen – bei mehr als 100.000 Kommentaren, die uns binnen weniger Wochen erreichen, ist dies eine wertvolle Hilfe. Darüber hinaus kommen intelligente Technologien bei WELT auch zum Einsatz, wenn es darum geht, Nutzern Inhalte basierend auf ihren Interessen anzuzeigen, etwa wenn sie bestimmte thematische Präferenzen haben. Ganz grundsätzlich gilt bei uns aber die Maxime, dass die Redaktion bei jeglicher durch eine KI gewonnenen Information dieselbe professionelle Skepsis und Umsicht an den Tag legt, die auch bei jeder Recherche gilt.
Um es klar zu sagen: Redakteure sind weiterhin für die von ihnen erstellten Inhalte verantwortlich, auch wenn sie dabei KI einsetzen. Die redaktionellen Richtlinien, die bei WELT für den Umgang mit künstlicher Intelligenz gelten, finden sie hier.
Die Redaktion