Artificial intelligence

Ein Update für die Schweizer KI-Politik

Der Einfluss von Künstlicher Intelligenz auf unsere Gesellschaft wächst stetig, doch die Regulierung hinkt derzeit den technologischen Entwicklungen hinterher. Ein halbjährlicher Bericht von einem Expert:innengremium, der die aktuellen Entwicklungen dokumentiert und die möglichen Auswirkungen auf die Schweizer Gesellschaft darlegt, könnte dem entgegenwirken.

Vorsicht und Nachsicht

Nach so manchen Krisen, Pandemien oder Finanzcrashs beschleicht einen das Gefühl, dass man das alles ja eigentlich hätte kommen sehen sollen. Und wer sucht, findet immer irgendwelche Nerds, die vor genau jenen Krisenszenarien eigentlich gewarnt hätten, die später eintreten. Michael Burry hat die Immobilienmarktblase von 2008 schon 2006 vorausgesagt. Experten haben uns schon vor dreissig Jahren vor der nächsten Pandemie gewarnt.[1] Viele zukünftige Entwicklungen lassen sich erahnen.[2] Nicht immer, und praktisch nie vollständig, aber oft und ausführlich genug, um gewisse Vorbereitungen zu treffen. Und seien es nur strategische Überlegungen und Szenarien auszuarbeiten. Das ist natürlich nicht einfach. Und es wird nicht einfacher wenn es dabei um sehr unwahrscheinliche, aber potenziell verheerende Fälle geht. Nicht einfacher, aber auch nicht weniger wichtig. Wenn der Wetterbericht in einem von fünfzig Fällen fälschlicherweise Sonne statt Regenwetter vorhersagt, ist das in Ordnung. Wenn ein Flugzeugnavigationssystem in einem von fünfzig Fällen versagt, würden wir uns zweimal überlegen, einen Flug zu buchen. Im politischen Alltag, wo die Unterscheidung zwischen Unwahrscheinlichkeiten und Unmöglichkeiten schwer fällt, ignorieren wir Katastrophenrisiken aber häufig.

In den letzten Jahren sind die Fähigkeiten von “Machine Learning (ML)” -Systemen rapide gewachsen. Vor fünf Jahren hätten viele kreative Tätigkeiten wie das Schreiben einer 1. Augustrede [3] oder das Malen eines Bildes [4] im Stil von Van Gogh als permanent menschliche Fähigkeit beschrieben. Heute können ML-Systeme nicht nur das, sondern auch Videospiele wie StarCraft II [5] auf Profiniveau meistern, Mathematik-Olympiaden-Rätsel [6] lösen und aus sprachlichen Anweisungen Code für Computerprogramme [7] generieren. Fortschritte in dieser Technologie werden in den nächsten 30 Jahren erhebliche Auswirkungen auf die Gesellschaft haben. Bereits heute sind selbstfahrende Autos in den Vereinigten Staaten in Unfälle [8] verwickelt. Soziale Medienplattformen verbreiten unerwartet verstörende [9] Inhalte, verursachen Gewalt und politische Polarisierung. Unschuldige werden bereits heute aufgrund "falsch positiver" Identifizierungen durch polizeiliche Gesichtserkennungssysteme zu Unrecht verhaftet.[10] Wo diese Auswirkungen schon heute bestehen, hinkt die Regulierung der Lebensrealität von Schweizer:innen hinterher.

Diese und viele weitere Ideen werden in der Blogposts Reihe zum Reatch Ideenwettbewerb 2022 präsentiert.

Konsequenzen fehlender Regulierung

In der Praxis heisst das, dass privaten Firmen wie Meta oder OpenAI Verantwortung für öffentliche Güter - wie die politische Meinungsbildung - auferlegt wird, die sie nicht tragen können oder sollen. Andererseits werden Fortschritte gebremst und Chancen verpasst, weil Entwickler:innen sich auf keinen klaren Rechtsrahmen verlassen können. Wenn ein ETH Spin-off revolutionäre selbstfahrende Autos entwickeln würde, wäre komplett unklar, ob eine solche Technologie in der Schweiz überhaupt erlaubt wäre. Welche Auswirkungen militarisierte Versionen dieser Technologie auf geopolitische Machtverhältnisse und die zukünftige Schweizer Sicherheitspolitik haben werden, ist ebenso ungeklärt.

Um Entscheidungen in diesem Bereich zu fällen, braucht es Informationen zum aktuellen Stand der Technologie und potenziellen zukünftigen Entwicklungen. Solche Informationen werden teilweise bereits heute erarbeitet:

Das Secure, Reliable, and Intelligent Systems Lab” (SRI) [11] und das Centre for AI [12] an der ETH beschäftigen sich mit der Entwicklung technisch sicheren KI-Systemen. Think Tanks wie W.I.R.E.D [13], Pour Demain [14] oder Algorithm Watch [15] forschen an den gesellschaftlichen Auswirkungen. Auch ausserhalb der Schweiz wächst dieses Forschungsgebiet sowohl an Universitäten, als auch im para-akademischen Bereich. Das Centre for Security and Emerging Technology
(Georgetown University)[16], das Future of Humanity Institute (Oxford) [17] und die Future Society (Brüssel) [18] erarbeiten Ressourcen und Informationen.

Institutionalisierte Informationsgrundlagen

Ich schlage deshalb vor, dieses vorhandene Fachwissen zu sammeln, effizienter zu nutzen und in einem halbjährlichen “State of AI”-Bericht zu präsentieren. Ein Gremium von Forschenden (zum Beispiel Mitglieder des Kompetenznetzwerks für Künstliche Intelligenz) soll vom Bund beauftragt werden, die aktuellen Entwicklungen in diesem Bereich zu dokumentieren und mögliche Auswirkungen auf die Schweizer Gesellschaft zu diskutieren. Die Berichte sollten nicht primär Regulierungsempfehlungen enthalten, sondern vor allem technologische Zusammenhänge und offene Fragen verständlich darlegen. Die Gruppe soll sich unter anderem mit der Frage befassen, welchen Einfluss KI auf die Sicherheit kritischer Infrastrukturen, wirtschaftlichen Chancen der Schweiz, die Erhaltung des Rechtsstaates, und internationale Regulierungstrends haben wird. Beachtet werden sollen dabei insbesondere Katastrophenrisiken[19]: unwahrscheinliche Fälle, mit potenziell katastrophalen Folgen.

Diese Berichte sollen veröffentlicht und mit Fraktions- und Parteipräsident:innen, sowie Departementschef:innen und Generalsekretär:innen diskutiert werden. Ausserdem soll sich das Gremium an Wissenschaftler:innen regelmässig an internen, verifizierbaren Forecasts [20] versuchen, um eigene Szenarien laufenden Entwicklungen und neuen Informationen anzupassen. So bekommen die Forschenden Feedback und können sich besser kalibrieren.

Der wachsende Einfluss dieser Technologie - mit all ihren Risiken und Chancen - wird früher oder später praktisch unausweichlich. Es wäre sinnvoll gewesen, sich frühzeitig Gedanken zu machen, welche Risiken wir minimieren und welche Chancen wir nutzen möchten. Im Oktober 2022 ist es nicht nur sinnvoll, sondern allerhöchste Zeit.

Auch dieses Jahr suchen wir im Rahmen des Ideenwettbewerbs wieder deine Ideen für die Zukunft!

Das Bewerbungsfenster für den diesjährigen Reatch Ideenwettbewerb ist geöffnet und wir suchen Ideen, wie die Wissenschaften mit der Politik, der Wirtschaft oder der Zivilgesellschaft in den nächsten 175 Jahren gemeinsam Herausforderungen unserer Gesellschaft meistern können.

Alle Informationen zum Ideenwettbewerb 2023 findest du hier.

Dieser Text ist im Rahmen des Reatch Ideenwettbewerbs entstanden. Um die Krisen von morgen zu meistern, brauchen wir als Gesellschaft Vorstellungsvielfalt als Rüstzeug. Dafür notwendig ist ein gemeinsames Verständnis, aber auch konkrete Ideen und Ansätze, wie Probleme angegangen und gelöst werden können. Dieses Ziel verfolgt der Reatch Ideenwettbewerb. Im Rahmen davon, haben wir nach Ideen gesucht, wie die Wissenschaften zusammen mit Politik, Wirtschaft oder Gesellschaft die Krisen von morgen meistern können. Denn eine enge und konstruktive Zusammenarbeit zwischen den verschiedenen Akteuren ist entscheidend, damit wissenschaftliche Erkenntnisse auch Eingang in politische und gesellschaftliche Lösungen finden. Der Ideenwettbewerb wurde u.a. unterstützt durch die Stiftung Mercator Schweiz, die Gebert Rüf Stiftung und den Schweizerischen Nationalfonds (SNF).

Autor*innen

Autor*in

Lara Thurnherr (22) erarbeitet als freischaffende Historikerin bei Rhyme Recherchen für unterschiedliche Non-Profit-Organisationen im Bereich KI-Regulierung und Pandemie Prävention. Sie untersucht in diesem Kontext unter anderem die Geschichte von Klima- und Abrüstungsbemühungen.

Die Beiträge auf dem Reatch-Blog geben die persönliche Meinung der Autor*innen wieder und entsprechen nicht zwingend derjenigen von Reatch oder seiner Mitglieder.

Zum Kommentieren mehr als 20 Zeichen im Text markieren und Sprechblase anklicken.

Wir freuen uns über nützliche Anmerkungen. Die Kommentare werden moderiert.