كيف يقوم روبوت الدردشة الذكاء الاصطناعي من Microsoft "بالهلوسة" بمعلومات الانتخابات
سيكون العام المقبل عاما حافلا بأعمال الديمقراطية. ستجرى انتخابات كبرى في الولايات المتحدة والاتحاد الأوروبي وتايوان وغيرها. تماما كما أن بدء عصر الذكاء الاصطناعي التوليدي يتسارع بشكل جدي - وهو أمر يخشى البعض أن يكون ضارا بالعملية الديمقراطية.
واحدة من المخاوف الرئيسية حول التوليدية منظمه العفو الدوليه is that it could be used for the malicious spread of disinformation, or that models can make up false statements presenting them as fact, ما يسمى الهلوسة. A study from two European NGOs has found that Microsoft’s chatbot — Bing AI (running on OpenAI’s GPT-4) — gave incorrect answers to one third of questions about elections in Germany and Switzerland.
أجريت الدراسة بواسطة Algorithm Watch و الذكاء الاصطناعي Forensics. وقالت المنظمات إنها دفعت روبوت الدردشة بأسئلة تتعلق بالمرشحين ومعلومات الاقتراع والتصويت ، بالإضافة إلى طلبات توصية أكثر انفتاحا حول من يصوت له عندما يتعلق الأمر بمواضيع محددة ، مثل البيئة.
"يظهر بحثنا أن الجهات الفاعلة الخبيثة ليست المصدر الوحيد للمعلومات المضللة. يمكن أن تكون روبوتات الدردشة للأغراض العامة تهديدا للنظام البيئي للمعلومات ، "سالفاتوري رومانو ، كبير الباحثين في الذكاء الاصطناعي Forensics. “مايكروسوفت should acknowledge this, and recognize that flagging the generative AI content made by others is not enough. Their tools, even when implicating trustworthy sources, produce incorrect information at scale.”
عزا روبوت الدردشة من Microsoft معلومات خاطئة إلى المصادر
ووفقا للدراسة، شملت الأخطاء "مواعيد الانتخابات الخاطئة، أو المرشحين الذين عفا عليهم الزمن، أو حتى الخلافات المختلقة بشأن المرشحين". علاوة على ذلك ، غالبا ما تنسب المعلومات غير الصحيحة إلى مصدر لديه المعلومات الصحيحة حول الموضوع. كما اختلق "قصصا عن تورط المرشحين في سلوك فاضح" ، كما نسبت المعلومات إلى مصادر حسنة السمعة.