Sprache verzerrt Informationen von ChatGPT im Nahostkonflikt
Auf Arabisch gibt ChatGPT laut einer Studie durchschnittlich um ein Drittel höhere Opferzahlen für den Nahostkonflikt an als auf Hebräisch. Zu israelischen Luftangriffen in Gaza erwähne der Chatbot doppelt so häufig zivile Opfer und sechsmal häufiger getötete Kinder.
Zwei Forscher der Universitäten Zürich (UZH) und Konstanz stellten ChatGPT zu bewaffneten Auseinandersetzungen wie dem Nahostkonflikt in einem automatisierten Verfahren wiederholt die gleichen Fragen in unterschiedlichen Sprachen. Sowohl auf Arabisch als auch auf Hebräisch fragten sie, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen, wie dem israelischen Luftangriff auf das Nuseirat Flüchtlingscamp aus dem Jahr 2014, gegeben habe.
Das gleiche Muster wie beim Nahostkonflikt trat auf, wenn die Forscher nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten, wie die UZH am Montag mitteilte.
Generell zeige ChatGPT höhere Opferzahlen an, wenn die Suchanfragen in der Sprache der angegriffenen Gruppe erstellt werden. ChatGPT neige ausserdem dazu, in der Sprache der angegriffenen Gruppe über mehr getötete Kinder und Frauen zu berichten und die Luftangriffe eher als wahllos und willkürlich zu beschreiben.
«Unsere Resultate zeigen gleichzeitig, dass die Luftangriffe in der Sprache des Aggressors von ChatGPT mit einer höheren Wahrscheinlichkeit bestritten werden», wird Christoph Steinert, Wissenschaftler am Institut für Politikwissenschaft der UZH, in der Mitteilung zitiert.
Sprachbiases verzerren Wahrnehmung
Menschen mit unterschiedlichen Sprachkenntnissen erhielten durch diese Technologien unterschiedliche Informationen, was einen zentralen Einfluss auf ihre Wahrnehmung der Welt habe. Dies könne dazu führen, dass Menschen in Israel auf Grundlage der Informationen, die sie von ChatGPT erhalten, die Luftangriffe in Gaza als weniger verlustreich einschätzen als die arabischsprachige Bevölkerung, so die Forscher.
Zwar können auch klassische Nachrichtenmedien die Berichterstattung verzerren, sprachbedingte systematische Verzerrungen von Large Language Models wie ChatGPT seien für die meisten Nutzenden aber schwer zu durchschauen. Es bestehe die Gefahr, dass die Implementierung dieser Large Language Models in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken, hiess es weiter. Dies könne zukünftig bewaffnete Auseinandersetzungen wie den Nahostkonflikt weiter befeuern.