HSG-Studie warnt vor verzerrten KI-Empfehlungen bei Geldanlagen

Künstliche Intelligenz liefert schnelle und verständliche Antworten – auch auf Finanzfragen. Doch wie verlässlich sind diese Ratschläge wirklich? Eine neue Studie der Universität St.Gallen (HSG) zeigt: Grosse Sprachmodelle wie ChatGPT empfehlen Anlagestrategien, die deutlich riskanter sind als bewährte Benchmarks.
Die Forscher prüften, wie die KI bei unterschiedlichen Profilen von Anlegern reagiert: Ein Beispiel war die Anfrage eines 30-Jährigen mit mittlerer Risikobereitschaft und 10’000 Dollar Kapital. Die von der KI zusammengestellten Portfolios wurden mit einem globalen Indexfonds – dem Vanguard Total World ETF – verglichen. Ergebnis: Die KI-Empfehlungen lagen in allen Tests über dem Risikoniveau des Benchmarks.
Verzerrungen in den Portfolios
Die Studie deckt fünf typische Muster auf:
- Übergewicht von US-Aktien: Rund 93 % der empfohlenen Anlagen entfielen auf US-Titel – der Benchmark liegt bei 59 %. Das macht die Portfolios anfällig für Schwächen der US-Wirtschaft.
- Technologie- und Konsumlastigkeit: Trendbranchen dominierten die Vorschläge, während stabilisierende Sektoren wie Transport oder Dienstleistungen kaum berücksichtigt wurden.
- Jagd auf «heisse Aktien»: Häufig wurden stark gehandelte, «angesagte» Titel empfohlen – ein kurzfristiger Ansatz mit zweifelhaftem Nutzen.
- Aktiv statt passiv: Statt kostengünstiger Indexfonds schlugen die Modelle riskantere Einzeltitel oder teure aktive Fonds vor.
- Versteckte Kosten: Die Gesamtkosten der KI-Portfolios lagen höher als beim Benchmark, was die langfristige Rendite schmälert.
Begrenzte Wirkung von Hinweisen
Selbst gezielte Hinweise wie «Bitte ohne Verwaltungsgebühren» änderten die Vorschläge nur marginal. Etwas bessere Resultate brachten breit formulierte Bitten wie «Vermeide häufige Anlegerfehler», doch auch diese beseitigten die Risiken nicht vollständig.
Verführerische Kompetenz
Besonders kritisch: Die KI gibt sich freundlich und kompetent – oft ergänzt mit einem Hinweis wie «Bitte recherchieren Sie selbst». Doch das wirkt trügerisch sicher. Die subtile Voreingenommenheit der Systeme bleibt für viele unerkannt und kann im Ernstfall teuer werden.
Empfehlungen der HSG-Studie
Die Studie liefert konkrete Ratschläge:
- Für Anleger: KI nur als Ideengeber nutzen, nicht als alleinige Entscheidungsgrundlage.
- Für Politik: Regulierungen prüfen, um systemische Risiken durch verzerrte KI-Empfehlungen zu vermeiden.
- Für Entwickler: Schutzmechanismen und weniger verzerrte Trainingsdaten sind nötig.
- Für Finanzbildung: Risiken von KI-basierter Beratung sollten stärker thematisiert werden.
Die vollständige Studie steht online zum Download bereit.
Text: pd/red