كشفت دراسة دولية جديدة أجراها كل من اتحاد الإذاعات الأوروبية (EBU) و هيئة الإذاعة البريطانية (BBC) أن تطبيقات الذكاء الاصطناعي الرائدة تحرّف محتوى الأخبار في ما يقرب من نصف ردودها. الدراسة حللت 3 آلاف رد من مساعدي الذكاء الاصطناعي مثل ChatGPT، وCopilot، وGemini، وPerplexity، بـ 14 لغة مختلفة.
وأظهرت النتائج أن 45% من ردود الذكاء الاصطناعي التي خضعت للدراسة احتوت على مشكلة كبرى واحدة على الأقل، بينما تضمنت 81% من الردود شكلاً من أشكال المشكلات بشكل عام.
أخطاء جسيمة في المصادر والمعلومات
ركز التقييم على الدقة، والمصادر، والقدرة على التمييز بين الرأي والحقيقة. وجاءت أبرز المشاكل كالتالي:
مشكلة المصادر: أظهر ثلث إجابات المساعدين أخطاء جسيمة في المصادر، مثل الإسناد المفقود، أو المضلل، أو غير الصحيح. وقد سجل مساعد Gemini من جوجل نسبة مرتفعة بشكل خاص، حيث كانت حوالي 72% من ردوده بها مشكلات كبيرة في المصادر، مقابل أقل من 25% لبقية المساعدين.
مشكلة الدقة: تم العثور على مشكلات في الدقة في 20% من إجمالي الردود، وشملت معلومات قديمة أو خاطئة. فمثلاً، ذكر ChatGPT أن البابا فرنسيس هو البابا الحالي بعد أشهر من وفاته، وذكر Gemini معلومات غير صحيحة حول قانون متعلق بالسجائر الإلكترونية.
تعود هذه الأخطاء، جزئياً، إلى ظاهرة “الهلوسة” التي تعاني منها نماذج الذكاء الاصطناعي عند توليدها لمعلومات غير صحيحة، غالبًا بسبب عدم كفاية البيانات.
تهديد المشاركة الديمقراطية
حذّر اتحاد الإذاعات الأوروبية من أن هذا التحريف يُعد تهديداً خطيراً لثقة الجمهور، خاصة مع تزايد استخدام مساعدي الذكاء الاصطناعي كمصادر رئيسية للأخبار (حوالي 7% من متصفحي الأخبار يستخدمونها، وترتفع النسبة إلى 15% بين من تقل أعمارهم عن 25 عامًا).
وقال جان فيليب دي تيندر، مدير الإعلام في الاتحاد: “عندما لا يعرف الناس ما الذي يثقون به، ينتهي بهم الأمر إلى عدم الثقة في أي شيء على الإطلاق، وهذا يمكن أن يعرقل المشاركة الديمقراطية”.
دعا التقرير شركات الذكاء الاصطناعي إلى الخضوع للمساءلة وتحسين دقة ومصداقية مساعديها في الاستجابة للاستفسارات المتعلقة بالأخبار.
نقلاً عن : الجمهور الاخباري

تعليقات