دراسة تكشف: روبوتات الدردشة بالذكاء الاصطناعي تقدم معلومات مضللة في الأخبار

كشفت دراسة حديثة أجرتها هيئة الإذاعة البريطانية (BBC) أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT وGoogle Gemini، تعاني من صعوبات في تقديم معلومات دقيقة عند تلخيص الأخبار. أظهرت الدراسة أن أكثر من نصف الملخصات التي تم إنشاؤها بواسطة هذه الروبوتات تحتوي على معلومات غير صحيحة أو اقتباسات محرفة، مما يثير تساؤلات حول موثوقية هذه التقنيات في تقديم الأخبار.

illustration-of-a-head-with-the-chatgpt-logo-in-the-brain-1 دراسة تكشف: روبوتات الدردشة بالذكاء الاصطناعي تقدم معلومات مضللة في الأخبار

وجدت دراسة حديثة أجرتها هيئة الإذاعة البريطانية (BBC) أخطاء كبيرة في إجابات الأخبار التي قدمتها مساعدات الذكاء الاصطناعي. اختبر الباحثون أربعة مساعدين معروفين للذكاء الاصطناعي – ChatGPT و Copilot و Gemini و Perplexity – من خلال السماح لهم باستخدام موقع BBC الإلكتروني لإجاباتهم.

كشفت الدراسة أن مساعدي الذكاء الاصطناعي المشهورين غالبًا ما قدموا معلومات غير صحيحة وشوهوا الحقائق في إجاباتهم. تم طرح مجموعة من 100 سؤال على مساعدي الذكاء الاصطناعي حول مواضيع إخبارية مختلفة. قام صحفيو هيئة الإذاعة البريطانية بتقييم الإجابات بناءً على سبعة معايير: الدقة، وإعطاء المصادر المناسبة، وعدم التحيز، والتمييز بين الرأي والحقيقة، وتجنب وجهات النظر الشخصية، وتوفير السياق، وإدراج محتوى هيئة الإذاعة البريطانية بشكل مناسب.

وجد التقييم أن أكثر من نصف (51٪) من الردود كانت بها مشاكل كبيرة في هذه المجالات. بالإضافة إلى ذلك، كان 91٪ من الإجابات بها بعض الأخطاء على الأقل. مع شيء مثل الأخبار، فإن الخطأ ولو قليلاً يعد أمرًا كبيرًا.

كانت العديد من الأخطاء بسبب حقائق غير صحيحة. حوالي 19% من الإجابات التي ذكرت محتوى BBC تضمنت أخطاء مثل العبارات الخاطئة أو الأرقام أو التواريخ. كما أن 13% من الاقتباسات المفترضة من مقالات BBC إما تم تغييرها أو لم تأت من المصدر الأصلي. وتشمل بعض الأمثلة مساعدي الذكاء الاصطناعي الذين ذكروا بشكل غير صحيح وضع السياسيين السابقين، وتحريف نصائح هيئة الخدمات الصحية الوطنية بشأن التدخين الإلكتروني، وتقديم تقارير خاطئة عن الصراعات في الشرق الأوسط.

bbc-perplexity-response-on-when-someone-died دراسة تكشف: روبوتات الدردشة بالذكاء الاصطناعي تقدم معلومات مضللة في الأخبار bbc-chart-with-how-wrong-chatbots-are دراسة تكشف: روبوتات الدردشة بالذكاء الاصطناعي تقدم معلومات مضللة في الأخبار

bbc-chart-showing-how-bad-ai-are دراسة تكشف: روبوتات الدردشة بالذكاء الاصطناعي تقدم معلومات مضللة في الأخبار

أشارت الدراسة إلى مشاكل تتعلق بكيفية استخدام المصادر والسياق المقدم. غالبًا ما اختار مساعدو الذكاء الاصطناعي مقالات قديمة أو صفحات ويب حالية كمصدر لهم، مما تسبب في بعض عدم الدقة. في بعض الأحيان، كانت المعلومات صحيحة ولكن تم نسبها بشكل خاطئ إلى هيئة الإذاعة البريطانية. علاوة على ذلك، لم يقدم الذكاء الاصطناعي سياقًا كافيًا في ردوده، مما أدى إلى سوء الفهم.

من الواضح أن الذكاء الاصطناعي واجه صعوبة في التمييز بين الرأي والحقيقة. أدى هذا إلى تعامله غالبًا مع الآراء كحقائق، وغالبًا ما أغفل السياق المهم، مما أدى إلى إجابات متحيزة أو غير كاملة.

والأمر الأكثر إثارة للاهتمام هو أن البحث وجد أن مساعدي الذكاء الاصطناعي المختلفين لديهم مشاكل مختلفة. على سبيل المثال، واجهت جيميني أكبر عدد من المشكلات المتعلقة بالدقة كما واجهت صعوبة في توفير مصادر موثوقة. واجهت كل من Copilot وPerplexity صعوبات في تمثيل محتوى هيئة الإذاعة البريطانية بدقة. يثبت هذا عن غير قصد أن الذكاء الاصطناعي من شركات مختلفة غير قابل للتبادل، وقد تكون جودة أحدهما أفضل من الآخرين – ومع ذلك لا يزالون ليسوا جيدين مثل البشر.

طالع أيضا
1 من 16

كان أحد الموضوعات الرئيسية التي تم طرحها في الدراسة هو القلق الكبير بشأن مدى سهولة انتشار هذه المعلومات الخاطئة على وسائل التواصل الاجتماعي. يُظهر بحث بي بي سي أن مساعدي الذكاء الاصطناعي ليسوا موثوقين في تقديم تقارير إخبارية دقيقة في الوقت الحالي. على الرغم من أن العديد منهم يحذرون المستخدمين من احتمالية وجود أخطاء، فلا يوجد نظام في مكانه لإصلاح الأخطاء كما تفعل منافذ الأخبار التقليدية.

تدعو بي بي سي إلى مزيد من التحكم في كيفية استخدام شركات الذكاء الاصطناعي لمحتواها، والمزيد من الشفافية حول كيفية عمل الذكاء الاصطناعي، وفهم أفضل للأخطاء التي يمكن أن تحدث. تخطط بي بي سي لتكرار هذه الدراسة في المستقبل لمعرفة ما إذا كانت الأمور ستتحسن وقد تشمل أيضًا ناشرين ومؤسسات إعلامية أخرى في أبحاثها.

المصدر: بي بي سي

تسلط هذه الدراسة الضوء على التحديات التي تواجهها روبوتات الدردشة المدعومة بالذكاء الاصطناعي في تقديم معلومات دقيقة وموثوقة. من الضروري أن يستمر الباحثون والمطورون في العمل على تحسين هذه التقنيات لضمان تقديم محتوى موثوق به للمستخدمين، خاصةً في مجالات حساسة مثل الأخبار.

قد يعجبك ايضا