Source Engine

Was ich im Kampf gegen Fake News lernte

Vor einem Jahr gewann die Idee der «Source Engine» von Nadine Felber den Reatch Ideenwettbewerb. In diesem Blog-Artikel zieht sie Bilanz und berichtet, wie sich die Idee in der Zwischenzeit weiterentwickelte.

Fake News und Verschwörungserzählungen machen mir grosse Sorgen, weil ich persönlich miterleben musste, wie sie Bekannte und Freunde in ihren Bann ziehen. Meinen damaligen Partner hat es besonders schlimm erwischt. Ich wollte etwas unternehmen, um diesen Bann zu brechen und entwickelte die Idee der Source Engine. Die Source Engine in ihrer ursprünglichen Form ist eine simple Suchmaschine zur Rückverfolgung von Quellen, in der Machine Learning eine grosse Rolle spielt. Ein Werkzeug, um den Ursprung einer Aussage aufzuspüren und gleichzeitig aufzuzeigen, wie sich die Aussage durch das Internet verbreitet. Ohne menschliche Faktenchecker.

Obwohl ich kaum etwas vom Programmieren wusste, war ich mir sicher, dass Expert*innen auf dem Gebiet die nötigen Algorithmen entwickeln könnten. Ich gewann den ersten Rang beim Wettbewerb um die beste Idee. Aber ich bin Philosophin. Ein Software-Projekt zu leiten, gehört nicht zu meiner Ausbildung. Also blieb die Idee erst einmal liegen.

Meine Beziehung war zu dem Zeitpunkt in die Brüche gegangen, zerstört durch Fake News, Bullshit, Denialism und Verschwörungserzählungen. All meine Bemühungen, vorurteilslos zu bleiben und lediglich nachzubohren, woher seine Informationen stammen, hatten nichts gebracht. Die Illegitimität von Quellen aufzuzeigen, beeindruckte meinen mittlerweile felsenfest von QAnon und anderen dubiosen Geschichten überzeugten Ex-Partner nicht im Geringsten. Regelmässig endeten Diskussionen im Streit. Was also, wenn mein Ansatz schon in der Theorie falsch war? Was, wenn Quellen gar nicht so ausschlaggebend sind? Damit wollte ich mich nicht wirklich auseinandersetzen.

Eine Idee mit viel Potenzial - und vielen Fragezeichen

Bis Manuel Merki, Projektleiter und Business Designer mich anfragte, ob ich vorhabe, etwas aus der Idee zu machen. Eine Idee alleine wäre nicht viel Wert ohne Umsetzung, aber er sah das Potential.

Es war schnell klar, dass es gar nicht so einfach ist, eine Quelle zu identifizieren. Seit November 2020 recherchieren, diskutieren und optimieren wir das Konzept. Zusammen mit Machine Learning Experten, Journalist*innen und anderen, die das Problem von Fake News und Verschwörungserzählungen so beunruhigend finden wie wir, sind wir auf der Suche nach einer Lösung.

Diese Inputs aus Journalismus, Psychologie, Kommunikationswissenschaften und Machine Learning helfen uns, die verschiedenen Facetten des Problems zu verstehen. Denn die Anziehungskraft von Fake News ist vielschichtig: Selbst wenn unsere Source Engine das gesamte Netz durchstöbern und tatsächlich die Ursprungsquelle finden könnte, würde das nicht ausreichen, um den User von der Falschheit oder Richtigkeit der Information zu überzeugen und die Verbreitung von Fake News zu stoppen.

Zudem ist der Zugriff auf diese Daten und das entsprechende Volumen eine ziemlich grosse Hürde. Wir grenzten deshalb die Daten auf Schweizer Twitter-User ein, als Testumgebung sozusagen. Zusammen mit einem Machine Learning-Experten bastelten wir an einem Proof of Concept. Wir mussten unseren Datenspielraum weiter einschränken, doch erste Lösungsansätze entdeckten wir. Ein Dankeschön geht hier an die Teilnehmerinnen und Teilnehmer des «Rethink Journalism» Hackathons vom letzten Mai: Es war mein erster Hackathon, und ich – immer noch völlig ahnungslos was das Programmieren betrifft – war alles andere als sicher, dass jemand meine Idee spannend finden, geschweige denn, mit mir daran tüfteln wollte. Tatsächlich waren jedoch einige Leute dazu bereit, einen ganzen Freitag und Samstag damit zu verbringen, bei der Entwicklung der Source Engine mitzuhelfen. Das zeigte mir, dass es sich lohnt, weiter daran zu arbeiten, selbst wenn noch so viel Zeit und Energie dabei aufgebraucht wird.

Eine rein technische Lösung reicht nicht aus

Fake News Debatten drehen sich oft um die bot-getriebene, technologische Verbreitung. Lösungen, das haben wir gelernt, finden sich jedoch auch im sozialen Miteinander. Die Beschäftigung mit Fakes, Bullshit und allen anderen Formen handelt von ganz grundsätzlichen, gewichtigen Themen wie die Wahrung der Meinungsfreiheit, die oft schwierige Trennung von beweisbaren Tatsachen und nicht-faktenbasierten Ansichten - am Ende sogar vom Zusammenhalt der Gesellschaft. Wir alle konnten direkt mitverfolgen, wie sich die Schweiz nach und nach in zwei Lager aufspaltete: Befürworter*innen der Covid-Massnahmen auf der einen Seite, die Gegner*innen auf der anderen. Es ist fast unmöglich, in der Sache unparteiisch zu bleiben. Noch mehrfach versuche ich es mit Dialog auf Augenhöhe mit meinem Exfreund. Preisgeben, dass ich geimpft bin, will ich vermeiden. Als es doch zum Thema wird, ernte ich Beschimpfungen.

Trotzdem – oder vielleicht gerade deswegen – will ich unbedingt an der Neutralität der Source Engine festhalten und ihrem demokratischen Ursprung treu bleiben. Sie soll auf der Idee aufbauen, dass Zensur grundsätzlich nicht nötig ist. Die Gräben dürfen sich nicht vertiefen. Es gibt gesicherte Tatsachen nach besten wissenschaftlichen Erkenntnissen zum aktuellen Zeitpunkt und klare Falschinformationen. Aber nicht Plattformen privater Konzerne sollen bestimmen, was gesagt werden darf und was nicht. Also kämpfen wir weiter.

Learnings aus einem Jahr Source Engine

Dank vielen Gesprächen mit Expert*innen, unzähligen Studien und Büchern identifizierten wir die vielversprechendsten Mechanismen. Weil die einzelnen Bereiche miteinander vernetzt sind, würden wir am liebsten weitere Prototypen bauen, um die vielen Thesen zu prüfen, zu stärken oder zu verbessern. Dazu bräuchten wir Funding. Bisher haben uns unglaublich viele Menschen freiwillig geholfen. Langsam wird es ernst.

Es gibt viele Learnings, aber folgende beurteilen wir als zentral für unsere Lösung:

  1. Fake News betreffen jede*n: Da kein Mensch immun ist gegen «cognitive biases», ist auch niemand hundertprozentig sicher vor Fake News und Verschwörungserzählungen [1]. Wir alle wissen, wie unangenehm es sein kann, sich einen Fehler eingestehen zu müssen. Besonders, wenn er im Nachhinein vor Bekannten peinlich banal erscheint. Das Wegschauen von den eigenen Unzulänglichkeiten ist ein Problem, das wir angehen wollen.
  2. Psychosoziale Komponente: Unsicherheit ist ein unangenehmes Gefühl. Fake News und Verschwörungserzählungen lassen dieses Gefühl verschwinden. In Kombination mit dem Suchtpotential von Social Media ziehen sie Konsument*innen in eine verschworene Gemeinschaft, die Halt gibt, die jedoch das Vertrauen in die Gesellschaft als Ganzes untergräbt [2] [3]. Darunter leiden nicht nur Wissenschaftler*innen, Journalist*innen oder Politiker*innen, die Hassnachrichten erhalten. Sondern wir alle, die Familie, Freunde oder Bekannte nach und nach an solche Gemeinschaften verlieren. Es gilt, gesicherte Tatsachen von unzulässigen Interpretationen sichtbar(er) zu unterscheiden, um den Einstieg in den Kaninchenbau zu erschweren.
  3. Theorien zur Glaubensformung: Warum glauben wir, was wir glauben? Veranlagungen, Kontext, Umfeld, und psychologische Prozesse spielen eine wichtige Rolle, die es erst noch genauer zu verstehen gilt [4] [5]. Wenn Konsument*innen von Fake News und Verschwörungserzählungen besser verstehen würden, was diese kognitiv genau auslösen, würden sie vielleicht vorher stoppen.
  4. Expert*innen als Quelle: Informationen tauchen nicht einfach so im Netz auf. Sie werden von jemandem platziert und weiterverbreitet. Wir wollen ein Netzwerk entwickeln, das es Autor*innen ermöglicht, die auf ihn oder sie gestützten Informationen zu prüfen und richtigzustellen. Es werden viele falsche Schlüsse basierend auf seriösen Quellen gezogen, welche Verschwörungserzähler*innen Autorität verleihen, solange es ins Bild passt [6].

Diese Learnings haben wir genutzt und in zwei Ansätze verpackt. Beim ersten geht es darum, Informationen zu kennzeichnen, die nicht auf gesicherten Tatsachen beruhen - ohne Faktenchecker. Das ist die Grundlage für Suchergebnisse. Beim zweiten ist das Ziel, hinter die Vorgehensweisen beim Recherchieren zu sehen, angefangen bei sich selber.

Gegen Halbwahrheiten vorgehen

Unser erster Ansatz attackiert die Halbwahrheit. Fake News beinhalten viele Tatsachen, verdrehen diese jedoch an der entscheidenden Stelle zur gewollten Konklusion. Die weitverbreitetsten Falschinformationen entstehen durch vordergründig schlagkräftige Beweise, die sich schlüssig anhören. Hunde sind nicht unfähig zum Schwitzen, weil sie ihren Organismus durch Hecheln abkühlen, wie ein banaler Irrglaube besagt. Die Schweissdrüsen sitzen in den Hundepfoten. Das angewendete Prinzip beruht entweder darauf, ein Detail weg zu lassen oder zu ergänzen, um zu völlig anderen Konklusionen zu gelangen [7]. Um solchen Strategien die Grundlage zu entziehen, wollen wir Wissenschaftler*innen, Journalist*innen und weiteren Autor*innen die Möglichkeit geben, Zitationen der eigenen Inhalte zu widersprechen. Direkt in fremden Texten.

Das ist das erste Puzzlestück, um ohne Faktenchecker und ohne NLP (Natural Language Processing) zu identifizieren, welche Publikationen faktenbasiert argumentieren.

Sich des eigenen Suchverhaltens bewusst sein

Der zweite Ansatz richtet sich direkt an die Empfänger*innen von Verschwörungserzählungen: diejenigen, die keine Fake News glauben. Weil niemand Fake News glauben will. Fake News verbreiten die Anderen, zumindest deutet ein weiterer Bias darauf hin [8] [9]. Komplett ausradieren können wir diesen Glaubenssatz nicht. Unsere Learnings haben uns aber klar gemacht, welche Rolle sowohl psychische Prozesse als auch das soziale Umfeld spielen. Verschwörungserzähler*innen waren nicht immer so. Viele haben zuvor etwas Entscheidendes erlebt: einen grossen Verlust, einen Vertrauensbruch, eine unfaire Behandlung durch Institutionen. Wir wissen auch, dass wir keine Extremisten überzeugen können. Die Source Engine will die vielen Menschen unterstützen, die unsicher sind, ob etwas glaubwürdig ist.

Welchen kognitiven und emotionalen Abläufen müssen wir also Beachtung schenken, damit Neugier und Unsicherheit nicht noch mehr Menschen in den Bann von Fake News zieht? Wie schützen wir uns selbst vor dem Sog von reisserischen Falschaussagen, vorgetäuschter Klarheit und vermeintlichen wissenschaftlichen Informationen? Im Einzelfall spielen eine Menge Kriterien eine Rolle. Dementsprechend soll jede einzelne Userin und jeder einzelne User Einblick in ihre persönlichen Gewohnheiten und Gedankenprozesse bekommen. Mit dem zweiten Ansatz wollen wir den individuellen Usern aufzeigen wie sie ticken, wenn sie online News konsumieren und Informationen recherchieren.

Unsere nächsten Schritte

Damit haben wir zwei gegenübergestellte Anknüpfungspunkte gefunden, mit denen wir das Problem von Fake News angehen: Einerseits wollen wir die korrekte Quellenwiedergabe unterstützen, andererseits den Usern aufzeigen, was sich in ihnen abspielt, wenn sie (Fake) News konsumieren.

Es ist noch ein harter Weg bis zu einer funktionierenden Source Engine. Aber wir haben zwei Ansätze, die wir austesten möchten. Zuerst visuell mit Mockups, dann implementiert mit Testnutzern. Bei Interesse an Details, schreibt uns gerne eine Nachricht an hallo@source-engine.io. Wir sind überzeugt, dass wir das Problem von Fake News und Verschwörungserzählungen nicht so stehen lassen können.

Nochmal in Kürze:

  • Unser erster Prototyp der Source Engine hat auf der technischen Ebene gezeigt, was möglich ist. Auch wenn wir zeigen konnten, dass das System grundsätzlich funktionieren würde, sind die Hürden gross und eine reine Tech-Lösung wird im Kampf gegen Fake News nicht ausreichen.
  • Durch den Design Thinking Prozess haben wir Mechanismen entdeckt, mit denen Fake News und Verschwörungserzählungen ohne Zensur reguliert werden können. Den Source Engine Ansatz haben wir entsprechend angepasst.
  • Wir suchen noch nach dem besten Weg, um die kognitiven Prozesse bei der Recherche zu reflektieren. Die psychologischen Sog-Prozesse lassen sich hoffentlich stoppen, wenn sie dem User oder der Userin bewusst gemacht werden. (Anmerkungen gerne in den Kommentaren).
  • Der wertneutrale Ansatz bleibt. Wir wollen niemandem die Konklusion vorwegnehmen. Die Source Engine zeigt, ob belastbare Quellen von glaubwürdigen Autor*innen vorhanden sind und will dazu anregen, das eigene Rechercheverhalten zu reflektieren. Die Entscheidung liegt am Ende beim Individuum.

Quellen

[1]

Ein guter Einstieg zu dem Thema ist das Buch «Thinking fast and slow» (2011) des Nobelpreisträgers Daniel Kahneman, das Buch «Why we fall for Fake News» (2020) von Rob Brotherton, oder auch der Dokumentarfilm «Right between your ears» (2016) von Sheila Marshall

[2]

Durazzi, F., Müller, M., Salathé, M., & Remondini, D. (2021). Clusters of science and health related twitter users become more isolated during the COVID-19 pandemic. Scientific Reports, 11(1) doi:10.1038/s41598-021-99301-0

[3]

Marantz, A. (2019). Antisocial: Online Extremists, Techno-Utopians, and the Hijacking of the American Conversation. Penguin Books.

[4]

Porot, N., & Mandelbaum, E.. (2021). The science of belief: A progress report. Wires Cognitive Science, 12(2). https://doi.org/10.1002/wcs.1539

[5]

Greifeneder, R., Jaffe, M., Newman, E., & Schwarz, N. (2020). The Psychology of Fake News: Accepting, Sharing, and Correcting Misinformation (1st ed.). Routledge.

[6]

Estornell, A., Das, S., & Vorobeychik, Y. (2020). Deception through half-truths. Paper presented at the AAAI 2020 - 34th AAAI Conference on Artificial Intelligence, 10110-10117

[7]

Estornell, A., Das, S., & Vorobeychik, Y. (2020). Deception through half-truths. Paper presented at the AAAI 2020 - 34th AAAI Conference on Artificial Intelligence, 10110-10117

[8]

Cecilie Steenbuch Traberg, Sander van der Linden, Birds of a feather are persuaded together: Perceived source credibility mediates the effect of political bias on misinformation susceptibility, Personality and Individual Differences, Volume 185, 2022, https://doi.org/10.1016/j.paid.2021.111269.

(https://www.sciencedirect.com/science/article/pii/S0191886921006486)

[9]

Michal, A.L., Zhong, Y. & Shah, P. When and why do people act on flawed science? Effects of anecdotes and prior beliefs on evidence-based decision-making. Cogn. Research 6, 28 (2021). https://doi.org/10.1186/s41235-021-00293-2

Ich danke den folgenden Personen herzlich für kritische Anmerkungen und Verbesserungsvorschläge.

Ich danke Olivia Meier für das stilistische Lektorat.

Verbleibende Fehler und Unklarheiten liegen einzig und allein in der Verantwortung der Autorin.

Autor*innen

Autor*in

Co-Leitung Basel

Nadine Felber macht momentan einen PhD in Biomedical Ethics an der Uni Basel. Sie hat einen Bachelor-Abschluss in International Relations von der Uni Genf und einen Master in Political, Legal and Economic Philosophy von der Uni Bern.

Der vorliegende Beitrag gibt die persönliche Meinung der Autor*innen wieder und entspricht nicht zwingend derjenigen von Reatch oder seiner Mitglieder.