Wenn Maschinen uns im Stich lassen

Wenn Maschinen uns im Stich lassen

Künstliche Intelligenz (KI) soll unser Leben erleichtern, birgt aber auch Risiken wie ungewollte Verzerrungen und Fehlentscheidungen. Auf der Konferenz «Machines That Fail Us» diskutierten Fachleute an der HSG kürzlich über diese Gefahren.

Ein Beispiel ist der Fall der schwarzen Studentin Robin Pocornie, die während einer Online-Prüfung an der VU Universität Amsterdam von der KI-Software nicht erkannt wurde. Die Software war vorwiegend mit weissen Menschen trainiert, sodass Pocornie nur durch starkes Anleuchten ihres Gesichts die Prüfung absolvieren konnte. Solche Fälle zeigen die rassistischen Tendenzen und Ungerechtigkeiten, die in KI-Systemen stecken.

Prof. Dr. Veronica Barrassi und ihr Team vom Institut für Medien- und Kommunikationsmanagement der HSG (MCM-HSG) präsentierten auf der Konferenz ihre Forschung zu diesen Themen, einschliesslich des «Human Error Project». Die Konferenz beleuchtete das Ungleichgewicht zwischen Technologieunternehmen und zivilgesellschaftlichen Akteuren sowie die Verstärkung bestehender Ungleichheiten durch KI. Barrassi betonte: «Unsere Technologien sind so ausgestaltet, dass sie durchaus auch falsch liegen können. Wir können uns nicht auf sie verlassen.»

«Menschen sind nicht standardisiert»

Stefania Milan, Professorin für Kritische Datenstudien an der Universität Amsterdam, kritisierte in ihrer Keynote den Einsatz von Überwachungssoftware und forderte ein robustes regulatorisches Rahmenwerk, ethische Richtlinien und mehr öffentliches Bewusstsein für die Schwachstellen der Technologie. Sie sagte: «Den standardisierten Menschen als Stellvertreter für die Bevölkerung zu nehmen, ist ein Problem, weil Menschen nicht standardisiert sind.»

Auf dem anschliessenden Podium wurde über Lösungsansätze diskutiert. Unternehmerin Lorna Goulden plädierte für digitale Tools zur Datenkontrolle und erklärte: «Wir müssen den Menschen wieder mehr Kontrolle über ihre eigenen Daten geben.» Luca Zorloni vom Digitalmagazin «Wired» forderte gesetzliche Transparenzpflichten bei Algorithmen: «Es braucht eine gesetzliche Veröffentlichungspflicht für Algorithmen, die grossen Einfluss auf die öffentliche Sphäre haben.» Und Ilia Siatitsa von Privacy International appellierte: «Entwickler sollten ihre Lösungen aus dem Blickwinkel der am meisten vulnerablen Personengruppen entwickeln.»

Alle Teilnehmer waren sich einig, dass der Widerstand gegen die Fehlentwicklungen der KI vereint werden muss. Lorna Goulden betonte: «Es ist nötig, dass alle Gruppen, die sich mit dem Thema beschäftigen, zusammenkommen, um den grossen Tech-Organisationen mehr entgegensetzen zu können.»

Auf dem Bild: v.l.n.r.: Dr. Philip Di Salvo, Lorna Goulden, Ilia Siatitsa und Luca Zorloni

Text: pd/red

Newsletter