Künstliche Intelligenz

Wer sich über Chat GPT informiert, landet in der Echokammer

Eine neue Studie zeigt: Die Informationen von Chatbots verstärken bestehende Vorurteile. Aber warum?

Wie praktisch ist doch ChatGPT! Man fragt einfach, was man wissen will, und bekommt vom Textgenerator eine maßgeschneiderte und fertig ausformulierte Antwort. Wenn etwas fehlt oder unklar ist, hakt man nach, und es wird fast ein richtiger Dialog daraus. Hunderte Millionen Menschen haben das schon ausprobiert, und es werden täglich mehr. Der Popularität der Sprachmodelle tut es keinen Abbruch, dass sie oft falsche oder unsinnige Antworten liefern. Aber das ist nicht die einzige Gefahr, wie nun ein Experiment zeigt: Wer über Chatbots nach Informationen sucht, landet in einer Echokammer. Die KI erkennt, was man hören will, und antwortet entsprechend. Das verstärkt bestehende Vorurteile und kann damit bestehende Polarisierung verschärfen. Davor warnen Forscher rund um Ziang Xiao von der Johns Hopkins University in Baltimore. Ihre Studie haben sie Montagabend bei einer Konferenz präsentiert.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.