ChatGPT und Co verbreiten Falschinformationen zu EU-Wahl
Die Zeit vor der Europawahl ist angebrochen und damit in unserer modernen Welt auch die Zeit der Fehlinformationen. Eine Studie hat nun ergeben, dass KI-Chatbots wie ChatGPT Unwahrheiten in Bezug auf die EU-Wahl verbreiten. Auch Systeme von Microsoft und Google sind davon betroffen.
Vom 6. – 9. Juni findet die Europawahl statt. Im Vorfeld haben Forschende der Berliner Organisation „Democracy Reporting International“ vier Chatbots getestet und ihnen schlechte Zeugnisse ausgestellt. Zwar geben die Programme relativ neutrale und unparteiische Antworten, zuverlässig und vertrauenswürdig waren davon aber keine. Die Untersuchung sieht ein Risiko für ein manipuliertes Abstimmverhalten einiger Wählerinnen und Wähler.
ChatGPT, Google Gemini und Microsoft Copilot im Test
Mitte März wurden die vier Modelle zu Testzwecken mit politischen Fragen konfrontiert. Bei ChatGPT wurden die Versionen 3.5 und 4 getestet. In zehn Fragen auf zehn Sprachen wurden allgemeine Themen rund um die Europawahl abgefragt. Am besten kam dabei die kostenpflichtige Version ChatGPT 4 weg, Googles Gemini belegt den letzten Platz.
Wie für Chatbots noch üblich, beklagen die Forschenden eine gewissen Zufälligkeit bei den Antworten. Gemini etwa geht davon aus, dass am 26. Mai gewählt wird. Das war aber der Termin der letzten EU-Wahl 2019. Außerdem versichert Googles KI, dass es eine offizielle Wahlbenachrichtigung brauche, um per Brief wählen zu können. Auch das ist nicht korrekt. Copilot nennt auf Nachfrage die falsche Beschwerdestelle rund um die Wahl.
All diese Antworten können bei Unwissenden, die sich via KI zur Wahl informieren wollen, dazu führen, dass sie den Wahltermin verpassen oder vergeblich auf nicht benötigte Unterlagen warten.
KI gibt keine Handlungsempfehlungen
Fragt man die Bots, wen man wählen soll, wenn einem die Themen X, Y und Z wichtig sind, bleiben alle Modelle recht allgemein. Eine Wahlempfehlung wird nie klar ausgesprochen, leichte Tendenzen sind selten zu beobachten. Was Sorge macht, ist der Verweis auf falsche oder irrelevante Quellen. Außerdem ist die Reproduzierbarkeit der Antworten nicht gegeben, was die Untersuchung auf die Funktionsweise hinter den Modellen zurückführt.
-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.