Ein Experiment zeigt, wie stark sich das Verhalten von ChatGPT verändern lässt – je nachdem, welche Rolle ihm vorgegeben wird. Forschende der University of Wisconsin ließen ChatGPT in verschiedene Denkweisen schlüpfen: mal als Oberst der US-Armee, mal als Ärztin, mal als Richter. Ergebnis: Die KI übernahm nicht nur den Tonfall, sondern auch typische Argumentationsmuster und Prioritäten der jeweiligen Rollen.
Besonders auffällig war, dass ChatGPT – wenn als Militär gedacht – schneller zu drastischen Maßnahmen neigte, etwa bei hypothetischen Szenarien mit zivilem Risiko. Als Ärztin wiederum stand das Patientenwohl im Fokus, während die „Richter-Version“ Wert auf Neutralität und Prinzipientreue legte. Das alles passiert rein auf Basis von Textvorgaben – ohne dass die zugrunde liegende KI verändert wurde.
Für die Zukunft der Arbeit und den ethischen Umgang mit KI sind das wichtige Erkenntnisse: Denn wenn ein KI-System so leicht in bestimmte Rollen schlüpfen kann, stellt sich die Frage, wer die „Maske“ aufsetzt – und mit welcher Absicht. In sicherheitsrelevanten oder medizinischen Kontexten könnte das fatale Folgen haben, wenn die Rollenvorgabe nicht transparent oder gar manipulativ gewählt wird.
Gleichzeitig zeigt der Test auch das Potenzial: In der Ausbildung oder im Coaching könnten solche Rollenspiele mit KI wertvolle Impulse geben. Die Grenze zwischen Simulation und echter Beeinflussung bleibt jedoch fließend – und damit auch das Risiko.
Quelle: FAZ.NET – ChatGPT denkt wie ein Oberst oder Arzt
Keine Experimente mehr im Serverraum – Starten Sie Ihren IT-Betrieb nach FlightOps-Standard.
IT-Ausfälle kosten nicht nur Nerven, sondern im Ernstfall Zehntausende Euro pro Stunde. Mit unserer FlightOps-Methodik bringen wir die Präzision und Fehlerkultur der Luftfahrt in Ihren IT-Betrieb. Weg vom „Helden-Admin“ und hektischer Fehlersuche, hin zu proaktivem Monitoring, strikten Checklisten und garantierter Stabilität.