دراسة جديدة تكشف أن الذكاء الاصطناعي يُشوّه الأخبار في 45 بالمئة من الحالات
نتائج دراسة عن تأثير الذكاء الاصطناعي على المحتوى الإخباري
كشفت دراسة معمقة أن الذكاء الاصطناعي يقدم معلومات مشوهة في حوالي 45% من الحالات، دون أن تتأثر هذه النتائج باللغة أو المنطقة الجغرافية.
مشاركة واسعة من هيئات البث
وشارك في هذه الدراسة 22 هيئة بث عامة من 18 دولة، وأظهرت أن مساعدات الذكاء الاصطناعي مثل ChatGPT وCopilot وGemini وPerplexity تقدم إجابات خاطئة أو مضللة في ما يقرب من نصف الحالات.
مشكلات الإسناد والدقة
سجلت الدراسة، التي قام بها الاتحاد الأوروبي للبث وهيئة الإذاعة البريطانية بالتعاون مع VRT، مجموعة متنوعة من المشكلات عبر جميع المنصات واللغات. حيث ظهرت 45% من إجابات الذكاء الاصطناعي تحتوي على مشكلة كبيرة واحدة على الأقل، تتراوح بين الأخطاء في نسب المصادر والمعلومات غير الدقيقة.
كانت مشكلة الإسناد للمصادر الأكثر بروزًا، حيث كانت المراجع مفقودة أو مضللة في 31% من الحالات، في حين أن 20% من الردود احتوت على معلومات غير دقيقة أو قديمة. وقد أُجريت تحليلات لأكثر من 3000 رد من هذه المساعدات، وسجلت Gemini أسوأ النتائج بمشاكل في 76% من ردودها.
استخدام الذكاء الاصطناعي في استهلاك الأخبار
أكدت الدراسة أن مساعدات الذكاء الاصطناعي بدأت تحل محل محركات البحث لملايين المستخدمين. حيث أظهر تقرير معهد “رويترز” للأخبار الرقمية 2025 أن 7% من مستهلكي الأخبار يستخدمون هذه المساعدات، وترتفع النسبة إلى 15% بين الشباب.
استجابة VRT للنتائج
أدت هذه النتائج إلى قيام VRT بتقييد وصول المساعدات الذكية إلى محتواها الإخباري، كما تخطط للتواصل مع وسائل الإعلام الأخرى في فلاندرز لمعالجة هذه القضية. وعلقت جريت دي كرين، مديرة المعلومات في VRT، على الأمر، مؤكدة أن تعامل روبوتات الدردشة مع الأخبار حاليًا يفتقر إلى الموثوقية الكافية. وهي ترى أن قرار منع الوصول إلى المحتوى يرسل رسالة واضحة لشركات التكنولوجيا الكبرى بأهمية المعلومات الموثقة.
الضغط على المنظمين من قبل الاتحاد الأوروبي
على الصعيد الدولي، يضغط الاتحاد الأوروبي للبث وأعضاؤه على المنظمين لفرض قوانين تضمن جودة المعلومات والخدمات الرقمية وتعددية الوسائط، مؤكدين على ضرورة المراقبة المستمرة لهذه المساعدات.
تعزيز الثقافة الإعلامية
تلتزم VRT بتعزيز الثقافة الإعلامية وزيادة الوعي بالذكاء الاصطناعي من خلال مبادرات متنوعة تشمل محتوى تعليمي مبتكر وحملات إلكترونية، تهدف هذه الجهود إلى إشراك الشباب وتعليمهم كيفية التفاعل النقدي مع التكنولوجيا.
الاستراتيجية المسؤولة للذكاء الاصطناعي
يتماشى هذا النهج التعليمي مع سياسة الذكاء الاصطناعي الشاملة لـ VRT التي تركز على الاستخدام المسؤول والشفاف، مع التأكيد على إمكانات الذكاء الاصطناعي في تعزيز الإتاحة والكفاءة والإبداع.
الخطوات المستقبلية
أوضح ليفين فيرمال، مدير الشراكات والبيانات والذكاء الاصطناعي في VRT، أن المؤسسة تستخدم الذكاء الاصطناعي بشكل استراتيجي لتعزيز مهمتها المجتمعية، وليس كموضة عابرة. حيث تربط سياستهم بين الابتكار والثقة، وتستند إلى الشفافية والرقابة البشرية والقيمة العامة.
كخطوة تالية، أسس الفريق البحثي الدولي “مجموعة أدوات سلامة الأخبار في مساعدات الذكاء الاصطناعي” لتطوير حلول للمشكلات المكشوفة، بما في ذلك تحسين ردود المساعدات وتعزيز الثقافة الإعلامية لدى المستخدمين.
أهمية الدراسة السابقة
اعتمدت الدراسة الحالية على بحث سابق لهيئة الإذاعة البريطانية في فبراير 2025، الذي أظهر مشاكل الذكاء الاصطناعي في التعامل مع الأخبار. وقام صحفيون محترفون من وسائل الإعلام العامة المشاركة بتقييم الردود بناءً على معايير تشمل الدقة، ونسب المصادر، والتمييز بين الرأي والحقيقة، وتوفير السياق.
شملت الدراسة هيئات بث من عدة دول، منها بلجيكا وكندا والتشيك وفنلندا وفرنسا وغيرها، مما يعكس التنوع والشمولية في التحليل.