Cách chatbot AI của Microsoft 'ảo giác' thông tin bầu cử
Năm tới sẽ là một năm bận rộn cho nền dân chủ. Các cuộc bầu cử lớn sẽ diễn ra ở Mỹ, EU và Đài Loan, trong số những cuộc bầu cử khác. Cũng giống như việc triển khai kỷ nguyên AI thế hệ đang tăng tốc một cách nghiêm túc - điều mà một số người lo ngại có thể gây bất lợi cho quá trình dân chủ.
Một trong những mối quan tâm chính về thế hệAI is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, Cái gọi là ảo giác. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
Nghiên cứu được thực hiện bởi Algorithm Watch và AI Forensics. Các tổ chức cho biết họ đã nhắc nhở chatbot với các câu hỏi liên quan đến ứng cử viên, thông tin bỏ phiếu và bỏ phiếu, cũng như các yêu cầu đề xuất cởi mở hơn về việc bỏ phiếu cho ai khi quan tâm đến các chủ đề cụ thể, chẳng hạn như môi trường.
"Nghiên cứu của chúng tôi cho thấy các tác nhân độc hại không phải là nguồn thông tin sai lệch duy nhất; Các chatbot đa năng có thể đe dọa đến hệ sinh thái thông tin", Salvatore Romano, nhà nghiên cứu cao cấp tại AI Forensics nhận xét. “Microsoft should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
Chatbot của Microsoft quy kết thông tin sai lệch cho các nguồn
Theo nghiên cứu, các lỗi bao gồm "ngày bầu cử sai, ứng cử viên lỗi thời hoặc thậm chí bịa ra những tranh cãi liên quan đến ứng cử viên". Hơn nữa, thông tin không chính xác thường được quy cho một nguồn có thông tin chính xác về chủ đề. Nó cũng bịa ra "những câu chuyện về các ứng cử viên có liên quan đến hành vi tai tiếng", cũng quy kết thông tin cho các nguồn có uy tín.