Information inequalities1

Volksabstimmungen und Algorithmen in der Schweiz: Intransparente Priorisierung von politischen Informationen

Dass KI-basierte Systeme (zum Beispiel Suchmachinen wie Google oder Chat-GPT) einen grossen Einfluss haben, ist unterdessen bekannt. Wie dieser Einfluss im Detail aussieht, ist aber nach wie vor nicht transparent. Dabei ist für die freie Meinungsbildung in einer Demokratie absolut zentral, wem welche Informationen zur Verfügung gestellt werden. Entsprechend wichtig ist es, bei KI-basierten Systemen im Kontext von Volksabstimmungen und Wahlen genau hinzuschauen. Welche Informationen zeigt KI den Bürger*innen der verschiedenen Landesteile der Schweiz an? Eine Analyse zur Abstimmung über das Klimaschutzgesetz von letztem Sommer.

Download

Zusammenfassung

Auf Künstlicher Intelligenz (KI)-basierte Systeme wie Web-Suchmaschinen und Chatbots werden zunehmend von Schweizer Bürgern genutzt, um Informationen zu politischen Themen zu finden, beispielsweise im Zusammenhang mit Volksabstimmungen und Wahlen. Dadurch ergeben sich sowohl neue Möglichkeiten als auch Risiken für die Schweizer Demokratie. Ein zentrales Risiko ist die Personalisierung der Informationsbereitstellung, indem ein System verschiedenen Benutzern beispielsweise je nach Standort oder Sprache der Benutzereingabe unterschiedliche Ergebnisse liefert. Im Falle einer mehrsprachigen direkten Demokratie kann eine solche variable Behandlung zu Diskrepanzen im wahrgenommenen Informationsspektrum zwischen Sprachregionen führen, die ernst genommen werden müssen.

Das Whitepaper zeigt diese ungleichen Informationsspektren anhand einer Fallstudie zur Volksabstimmung über das «Klimaschutzgesetz» im Juni 2023 auf. Dazu wurden Suchanfragen auf Google – der von 86% der Schweizer Bevölkerung genutzten Suchmaschine – auf Deutsch, Französisch und Italienisch ausgewertet. Die Resultate zeigen, dass Google je nach Sprache verschiedene Arten von Informationsquellen und Standpunkten zur Abstimmung unterschiedlich priorisiert. Den Nutzer*innen wird in den Suchresultate auf diese Weise eine sehr ungleiche Auswahl an Informationsquellen und Standpunkten zur Abstimmungsvorlage angezeigt. Diese Ungleichbehandlung hat zwei Dimensionen:

  • Die Möglichkeit der Schweizer Bürger*innen, eine objektive Darstellung des Spektrums politischer Positionen zu  bestimmten politischen Themen zu erhalten, wird beeinträchtigt. Dies stellt jedoch eine Grundvoraussetzung für die von der Verfassung garantierte freie Meinungsbildung und die direkte Demokratie der Schweiz dar.
  • Parteien oder Politiker*innen können im Zusammenhang mit bestimmten politischen Themen bevorzugt oder benachteiligt werden – ohne jegliche Transparenz darüber, wie diese KI-basierten Systeme Informationen für potenzielle Wähler*innen priorisieren.

KI-basierte Systeme können somit durch die ungleiche Priorisierung von politischen Informationen und Informationsquellen anhand intransparenter Kriterien die Möglichkeit zur freien Meinungsbildung der Bürger*innen einschränken und damit die Funktionsfähigkeit der Schweizer Demokratie in Frage stellen.

4 Kernherausforderungen

KI-basierte Systeme stellen uns unter anderen vor folgende Kernherausforderungen:
  • sie können die Informationsunterschiede zwischen Bürger*innen verschärfen;
  • sie können die Vielfalt der Medien und der politischen Meinungen weiter einschränken;
  • sie können die beeinflussen, wie welche Themen mit Parteien und Politiker*innen assoziert werden;
  • sie können Nutzer*innen fehlerhaften oder irreführenden Informationen aussetzen.

4 Empfehlungen

Die Autor*innen des Whitepapers schlagen deshalb vor:

  • Definition eines gemeinsamen Regelwerks für KI-gesteuerte Systeme im Kontext der politischen Entscheidungsfindung unter Einbezug der technischen Expert*innen und der relevanten Akteure aus Wissenschaft, Zivilgesellschaft und Politik.
  • Erstellung einer Reihe von Leistungsindikatoren (KPIs) zur Messung der Auswirkungen von KI-gesteuerten Systemen im Kontext der Schweizer Politik.
  • Aufbau einer Infrastruktur für ein konsistentes Monitoring der Auswirkungen von KI-gesteuerten Systemen im Kontext der politischen Entscheidungsfindung in der Schweiz, um das öffentliche Bewusstsein zu erhöhen und Transparenz dazu zu schaffen für die Bürger*innen.
  • Durchführung weiterer empirischer Studien darüber, wie KI-gesteuerte Systeme politische Themen in der Schweiz behandeln und wie verschiedene Gruppen von Schweizer Bürgern diese Systeme nutzen.

Über das Projekt

Grundlage für dieses Whitepaper ist die Forschung der Autor*innen, sowie im letzten Sommer durchgeführte Stakeholder-Interviews und ein «Franxini Fireside Chat» mit  Vertreter*innen aus Wissenschaften, Politik, Verwaltung, Medien und Zivilgesellschaft im Rahmen des Innovation Hub Projektes «AI-driven Information Inequalities in Switzerland in the Context of Popular Votes»
vom Verein Reatch. Das Verfassen des Whitepapers und die Entwicklung von konkreten Lösungsvorschlägen oblag der Verantwortung und Entscheidungskompetenz der beteiligten Autor*innen unter der Leitung von Mykola Makhortykh.

Autor*innen

Institute of Communication and Media Studies, University of Bern. I am interested in the topic because AI-driven systems such as search engines create numerous possibilities, but also risks for informing citizens. Considering the growing impact of AI on the societies worldwide, it is integral to understand how to realise possibilities it provides, while minimising the risks.

Social Computing Group, University of Zurich. I am a computational communication scientist, and in my work I focus on online political communication and the effects of algorithmic content curation. This project bridge these two research areas of my interest allowing, on one hand, to tap into the ways politically-relevant information is presented online and, on the other hand, how search algorithms affect its circulation.

Institute of Communication and Media Studies, University of Bern. I am a scientific programmer interested in development and maintenance of AI systems for different social sectors. By participating in the project, I want to better understand potential ethical considerations of adopting AI-driven systems in the Swiss context and how these considerations can be addressed.

Hannah Schoch

Autor*in

Co-Projektleitung Franxini-Projekt

Hannah Schoch ist Co-Projektleiterin beim Franxini-Projekt. Sie doktoriert in der Amerikanistik und ist Präsidentin von Actionuni und Vorstandsmitglied bei Eurodoc. Sie hat Englische Sprach- und Literaturwissenschaft,Filmwissenschaft, Philosophie und Gender Studies an der Universität Zürich studiert.

Die Beiträge auf dem Reatch-Blog geben die persönliche Meinung der Autor*innen wieder und entsprechen nicht zwingend derjenigen von Reatch oder seiner Mitglieder.

Zum Kommentieren mehr als 20 Zeichen im Text markieren und Sprechblase anklicken.

Wir freuen uns über nützliche Anmerkungen. Die Kommentare werden moderiert.