AGI: Der nächste KI-Hype oder echte Zukunftsperspektive?

Die künstliche allgemeine Intelligenz (AGI) verspricht Maschinen mit menschenähnlichen Fähigkeiten. Doch was steckt hinter dem Begriff – und wie realistisch ist seine baldige Umsetzung? Interview mit der Universität St.Gallen ordnet der Medienforscher und Journalist Dr. Philip Di Salvo die Debatte ein.

AGI steht für eine Form von künstlicher Intelligenz, die sämtliche kognitiven Fähigkeiten eines Menschen nachbilden kann. In der öffentlichen Diskussion wird AGI zunehmend als nächste Entwicklungsstufe der KI gehandelt. Doch laut Di Salvo mangelt es an einer klaren Definition. Während Tech-Unternehmen wie OpenAI oder DeepMind ambitionierte Ziele formulieren – etwa AGI bis 2030 –, bleibt unklar, was genau darunter zu verstehen ist. Das öffnet die Tür für Spekulationen und Narrative, die oft mehr mit Marketing als mit Wissenschaft zu tun haben.

Medien verstärken Extreme

In seiner Forschung am «Human Error Project» analysiert Di Salvo die Rolle der Medien in der KI-Debatte. Sein Fazit: Die Berichterstattung ist geprägt von Extremen – entweder wird KI zur Heilsbringerin oder zur existenziellen Bedrohung stilisiert. Besonders problematisch sei dies im Zusammenhang mit AGI, da sich die Diskussion dadurch weiter polarisiert. Seriöse Auseinandersetzungen mit konkreten gesellschaftlichen Folgen kämen zu kurz.

Reale Probleme statt Science-Fiction

Für Di Salvo lenken überzogene Zukunftsszenarien von den tatsächlichen Herausforderungen der Gegenwart ab. Bereits heute verursache KI reale Schäden – etwa durch algorithmische Diskriminierung oder hohe Umweltbelastung. Die Vorstellung einer autonomen Superintelligenz diene oft dazu, von diesen Problemen abzulenken und kritische Fragen zur aktuellen Technologieentwicklung zu umgehen.

Technologie ist nie unvermeidlich

Ein zentraler Punkt in Di Salvos Argumentation: Technologische Entwicklungen sind nie zwangsläufig. Sie entstehen im Zusammenspiel von politischen, ökonomischen und gesellschaftlichen Kräften. Die Vorstellung, AGI sei unausweichlich, hält er für gefährlich – auch weil sie die Deutungshoheit an Unternehmen delegiert, die ein kommerzielles Interesse an der Verbreitung bestimmter Narrative haben.

Das vollständige Interview mit Dr. Philip Di Salvo ist hier nachzulesen: https://www.unisg.ch/de/newsroom/artificial-general-intelligence-agi-ist-auf-dem-vormarsch

Text: red