Jak chatbot s umělou inteligencí od Microsoftu "halucinuje" informace o volbách
Nadcházející rok bude pro demokracii rušný. Významné volby se budou konat mimo jiné v USA, EU a na Tchaj-wanu. Právě v době, kdy éra generativní umělé inteligence nabírá na tempu – něco, čeho se někteří obávají, by se mohlo ukázat jako škodlivé pro demokratický proces.
Jednou z hlavních obav týkajících se generativních aplikací Umělá inteligence is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, tzv. halucinace. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Studii provedly společnosti Algorithm Watch a AI Forensics. Organizace uvedly, že chatbota povzbuzovaly otázkami týkajícími se kandidátů, průzkumů veřejného mínění a informací o hlasování, stejně jako otevřenějšími žádostmi o doporučení, koho volit, pokud se jedná o konkrétní témata, jako je životní prostředí.
"Náš výzkum ukazuje, že aktéři se zlými úmysly nejsou jediným zdrojem dezinformací; univerzální chatboti mohou být pro informační ekosystém stejnou hrozbou," komentoval Salvatore Romano, vedoucí výzkumný pracovník ve společnosti AI Forensics. “Společnost Microsoft should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Chatbot od Microsoftu připsal zdrojům nepravdivé informace
Podle studie chyby zahrnovaly "špatná data voleb, zastaralé kandidáty nebo dokonce vymyšlené kontroverze týkající se kandidátů". Kromě toho byly nesprávné informace často připisovány zdroji, který měl správné informace o tématu. Vytvářela také "příběhy o kandidátech, kteří byli zapojeni do skandálního chování", a také připisovala informace důvěryhodným zdrojům.