Franziska Ryser

Jubliäum

Ctrl H:elvetia – Künstliche Intelligenz als Werkzeug der Demokratie
05.09.2024 | Den grossen Problemen unserer Zeit können wir uns nur als demokratisch verfasste Gesellschaft stellen. Sei es in Bezug auf den Klimawandel, soziale Gerechtigkeit oder die Globalisierung: Entscheide, die nicht demokratisch legitimiert sind, haben nicht das Gewicht, um langfristig zu wirken. Auf der anderen Seite wissen wir, dass wir als Gesellschaft oft «schlechte» Entscheidungen treffen. Dass Partikularinteressen und Lobbying den politischen Prozess empfindlich verlangsamen. Sind wir als Menschheit wirklich in der Lage, die komplexe Polykrise, die sich weltweit zuspitzt, rechtzeitig zu bewältigen? Schaffen wir es, unschädlich(er) zu werden? Können wir beispielsweise aus den uns verfügbaren Daten zum Klimawandel, die richtigen Schlüsse zu ziehen? könnte eine KI, die in Sekundenbruchteilen gigantische Datenmengen analysieren und daraus konkrete Handlungsanweisungen modellieren kann, uns dabei nicht einfach nur unterstützen, sondern sogar bessere Entscheidungen treffen? Ein Gedankenexperiment, das unsere Vorstellung von Demokratie auf den ersten Blick radikal in Frage stellt: In einer liberal-pluralistischen Demokratie geht es ja gerade darum, dass man sich auf ein gemeinsames Ziel einigt und verschiedene Handlungsoptionen und Werthaltungen gegeneinander abwägt. KI erscheint hier als technoider Gegenentwurf zum politischen Diskurs. Aber stimmt das wirklich?
Im Begriff «KI» liegt zwar das Versprechen einer dem Menschen überlegenen Intelligenz, was an künstlicher Intelligenz aber eigentlich «intelligent» und was daran «künstlich» ist, scheint oftmals gar nicht so klar.
KI-Systeme analysieren Datensätze nach vorgegebenen algorithmischen Regeln. Finden sie in den vorhandenen Daten ein Muster, können sie damit neue Zusammenhänge und Strukturen vorschlagen. Was aber passiert, wenn in den Daten, mit denen sie trainiert wurde, nur ein kleiner Ausschnitt der Welt abgebildet wird? Dann beschränkt sich ihre Aussagekraft auch nur auf diesen Ausschnitt der Welt. So führt beispielsweise fehlende Diversität im Trainingsdatensatz einer Gesichtserkennungssoftware zu rassistischen Verzerrungen bei people of colour. Mit menschlicher «Intelligenz» lassen sich KI-Systeme also kaum vergleichen.

Menschliche Arbeit hinter KI

Auf der anderen Seite geht auch schnell vergessen, wieviel menschliche Arbeit hinter Algorithmen steckt. Einerseits werden die Datensätze, mit denen Algorithmen trainiert werden, von Arbeiter:innen manuell erstellt und in stundenlanger Arbeit kategorisiert. Andererseits werden in der Programmierarbeit menschliche Entscheidungen getroffen, die später in der Anwendung nicht mehr als solche erkennbar sind. In meiner Arbeit als Ingenieurin treffe ich beim Programmieren ständig Entscheidungen über die Relevanz und Gewichtung der verschiedenen Variablen. Was genau ist das Ziel des Algorithmus? Welche Daten werden für eine Entscheidung mitberücksichtigt, und welche nicht? Wie sicher muss sich der Algorithmus sein, um eine Kategorisierung vorzunehmen? Wie geht er mit Falsch-Entscheidungen um? Muss er immer eine Antwort haben, oder darf er auch einmal sagen, dass keine Zuordnung möglich war? Programmierarbeit heisst, aus verschiedenen Möglichkeiten diejenige auszuwählen, die für die jeweilige Anwendung am sinnvollsten scheint. Programmierarbeit ist also sehr viel kreativer als man denkt.
Ein weiterer Punkt: Eine objektive Eindeutigkeit in den Handlungsempfehlungen der Algorithmen gibt es kaum. Jeanette Hofmann weist in ihrer Arbeit zu Recht darauf hin, dass KI-Anwendungen sich nicht grundsätzlich von anderen Formen der Wissensproduktion unterscheiden. Je nach verwendeten Datensätzen, Berechnungsmethoden und Zielsetzungen verändern sich die Ausgaben der algorithmischen Systeme. Ihre Aussagen hängen also immer auch vom Kontext ihres Zustandekommens ab. Und deshalb sind sie genauso anfechtbar wie jede andere Stimme in einem demokratischen Diskurs. Statt also dem Mythos einer vermeintlichen «mathematischen Objektivität» zu verfallen, müssen wir die konkreten Anwendungen von KI-Systemen in den Blick nehmen, um deren Chancen und Risiken für unsere Demokratie richtig einzuschätzen. Die Aussage einer KI ist dann als das zu behandeln, was sie ist: Eine Stimme von vielen in einem politischen Diskurs.
Hofmann ermutigt uns, KI-Systeme nicht als Gegenmodell zur Demokratie zu verstehen, sondern als ein Werkzeug, das dabei helfen kann, Entscheidungen zu treffen. Man kann beispielsweise durch (faire und mit repräsentativen Daten trainierte) KI die Folgen unseres Handelns in der Zukunft extrem präzise modellieren. Diese Informationen können sehr hilfreich sein, wenn man sich für oder gegen eine Massnahme entscheiden muss. Zusammen mit anderen Argumenten, wie den Kosten, der Finanzierung, dem Kreis der Betroffenen, dem Zeitpunkt und der politischen Würdigung können so informiertere Entscheidungen getroffen werden, als dies heute oftmals der Fall ist. Auch bergen KI-Systeme keine Gefahr, den demokratischen Diskurs gänzlich abzulösen. Denn die Algorithmen speisen sich aus Daten der Vergangenheit. Wirkliche Alternativen zum Status Quo sind von ihnen nicht zu erwarten. Um neue, visionäre Ideen zu entwickeln, sind auch weiterhin kritisch-kreative Menschen notwendig sowie Räume (und Denk-netze), in denen ein Austausch stattfinden kann.

Die Eigentumsfrage – auch hier

Das Problem liegt an einer anderen Stelle: Die grossen Datenmengen sind heute in den Händen von einigen wenigen -Tech-Konzernen. Alphabet/Google, Meta, Amazon & Co. haben in den letzten Jahren riesige Datenspeicher angelegt und über personalisierte Werbung zu Geld gemacht. Sie investieren heute Milliarden in die Entwicklung von KI-Systeme. Dabei lassen sie sich nicht gerne in die Karten schauen. Wie genau ihre Systeme funktionieren, wo ihre Grenzen sind und welche (menschlichen) Entscheidungen hinter diesen Systemen stecken, bleibt unbekannt. Sie verdrängen dabei kleine, unabhängige und auf Transparenz ausgerichtete Projekte. Zudem gibt es grosse Wissenshürden: Erst ein kleiner Teil der Bevölkerung hat ein Verständnis für diese Technologie. Dies ist aber notwendig, um KI-Anwendungen kritisch zu hinterfragen, einzuordnen und in einem demokratischen Rahmen zu nutzen.
Es braucht also mehr Bildung. Und es braucht Transparenz über die Anwendungen und Ziele von KI-Systemen. Dafür müssen Quellcodes zugänglich gemacht und Trainingsdatensätze veröffentlicht werden. Für KI-Anwendungen innerhalb der Verwaltung braucht es systematische Folgenabschätzungen, klare Zertifizierungsvorgaben und eine regelmässige Überprüfung ihrer Auswirkungen. Dafür sind zivilgesellschaftliche Akteure nach Möglichkeit miteinzubeziehen. Wo Vorgaben nicht eingehalten werden, sind klare Rechenschaftspflichten notwendig. Es braucht Aufklärungs- und Sensibilisierungskampagnen und ein klares Verbot von menschenrechtsgefährdenden algorithmischen Systemen. Kurzum: Es braucht einen klaren, regulatorischen Rahmen und eine effektive politische Aufsicht, damit KI-Anwendungen innerhalb demokratischer Leitplanken funktionieren. Die EU hat mit dem “AI Act” einen Schritt in diese Richtung gemacht. Die Schweiz hingegen fährt bisher einen viel zu liberalen Kurs. Bis Ende 2024 will der Bund einen Vorschlag für einen schweizerischen Ansatz zur Regulierung von KI machen. Der Moment ist also entscheidend, um zu sensibilisieren und auf parlamentarischer sowie zivilgesellschaftlicher Ebene Druck aufzubauen. Der Aufwand ist gross, aber die Arbeit ist es wert: Nicht nur, um die Gefahren von unfairen, diskriminierenden und schädlichen Anwendungen einzudämmen. Sondern auch, um die Chancen von demokratie-kompatiblen KI-Systemen zu nutzen.
Umso wichtiger sind die zivilgesellschaftlichen Akteure, kritische Medien und NGO’s, die sich diesem Thema angenommen haben. Sie erlauben es, den Wissensvorsprung der Tech-Giganten zu verkleinern und die Interessen der Allgemeinheit zu vertreten. Damit wir irgendwann vielleicht wirklich bessere Entscheidungen treffen und den sozial-ökologischen Umbau der Schweiz, das Unschädlichwerden, rechtzeitig meistern.
Autorin | Franziska Ryser ist Nationalrätin für die Grünen.
Quellen
Hofmann, J., 2022: Demokratie und Künstliche Intelligenz. Im Rahmen des Projektes Digitales Deutschland. Online (22.8.2024).
Kreissl, R., von Laufenberg, R., 2022: Risiken und Gefahren der «Künstlichen» «Intelligenz». Bericht aus dem Forschungsprojekt «Künstliche Intelligenz, Mensch und Gesellschaft». Online (22.8.2024).
Weitere Beiträge in dieser Reihe:
Kategorie  |  Jubiläum