دراسة تكشف عن مخاطر الاعتماد على محركات البحث المدعومة بالذكاء الاصطناعي

مراجعة : ياسين عبد العزيز

الجمعة، 21 مارس 2025 10:31 ص

الذكاء الاصطناعي

الذكاء الاصطناعي

أصبحت محركات البحث المعتمدة على الذكاء الاصطناعي وسيلة يعتمد عليها عدد متزايد من المستخدمين للحصول على المعلومات بسرعة، لكنها لا تخلو من المشكلات. 

وكشفت دراسة حديثة أجراها مركز تاو للصحافة الرقمية بجامعة كولومبيا عن وجود خلل كبير في دقة المعلومات التي تقدمها هذه الأدوات، مما يثير مخاوف حول تأثيرها على الرأي العام وصحة الأخبار المتداولة.

الدراسة أظهرت أن نماذج الذكاء الاصطناعي التوليدي، مثل تلك التي تطورها OpenAI وxAI، تعاني من معدل خطأ مرتفع عند تقديم المعلومات الإخبارية، بل وتميل إلى تلفيق المحتوى بدلاً من الاعتراف بعدم المعرفة، هذا القصور يزداد خطورة في ظل تنامي اعتماد المستخدمين على هذه التقنيات، حيث أظهرت الأبحاث أن 25% من الأمريكيين يستخدمون هذه النماذج بدلاً من محركات البحث التقليدية.

نتائج صادمة حول دقة المحركات الذكية

اعتمدت الدراسة على اختبار ثمانية نماذج ذكاء اصطناعي تمتلك خاصية البحث المباشر، شملت: ChatGPT Search، Perplexity، DeepSeek Search، Gemini، Grok-2 Search، Grok-3 Search، وCopilot، تم تنفيذ 1600 استفسار للتأكد من قدرة هذه النماذج على تحديد المصدر الإخباري الأصلي، وتاريخ النشر، وعنوان المقال، ورابط المصدر.

النتائج كشفت عن معدل خطأ مرتفع، حيث قدمت النماذج إجابات غير صحيحة لأكثر من 60% من الأسئلة المتعلقة بالمصادر، لكن الاختلافات بين النماذج كانت كبيرة، حيث سجل Perplexity نسبة خطأ 37%، في حين وصل ChatGPT Search إلى 67%، بينما حقق Grok-3 أسوأ نتيجة بمعدل خطأ 94%.

الذكاء الاصطناعي يفضل التلفيق على الاعتراف بالخطأ

واحدة من أكثر النتائج إثارة للقلق أن هذه النماذج تميل إلى اختلاق الإجابات بدلاً من الإقرار بعدم معرفتها، فبدلاً من تقديم ردود توضح نقص المعلومات، تعطي إجابات تبدو موثوقة لكنها خاطئة، مما يزيد من خطر انتشار الأخبار المضللة.

المثير للدهشة أن الإصدارات المدفوعة من هذه النماذج كانت أكثر عرضة للأخطاء من الإصدارات المجانية، على سبيل المثال، أظهرت Perplexity Pro، التي يبلغ اشتراكها 20 دولارًا شهريًا، وGrok-3 المدفوعة، التي تكلف 40 دولارًا شهريًا، ميلاً أكبر لتقديم معلومات غير صحيحة بثقة أكبر مقارنة بالنماذج المجانية.

تحديات تواجه الناشرين وصناعة الأخبار

لم تقتصر المشكلات على دقة المعلومات، بل امتدت إلى حقوق الناشرين، اكتشف الباحثون أن بعض أدوات الذكاء الاصطناعي تجاوزت بروتوكولات استبعاد الروبوتات التي تمنع الوصول غير المصرح به إلى المحتوى.

على سبيل المثال، رغم أن ناشيونال جيوغرافيك تمنع Perplexity من الوصول إلى محتواها المدفوع، إلا أن النموذج المجاني تمكن من استرداد كامل المقالات العشرة المحمية بجدار دفع. 

إضافة إلى ذلك، بدلاً من توجيه المستخدمين إلى المصدر الأصلي، غالبًا ما كانت أدوات البحث الذكية تحيلهم إلى نسخ معاد نشرها على مواقع أخرى مثل Yahoo News، مما يحرم الناشرين الأصليين من الاستفادة من الزيارات والمشاهدات.

هذا الوضع يضع الناشرين أمام مأزق حقيقي:

إذا منعوا برامج الذكاء الاصطناعي من الوصول إلى محتواهم، فقد يفقدون الإسناد بالكامل.

إذا سمحوا لها بالوصول، فقد يتم إعادة استخدام محتواهم دون تعويضهم.

مسؤولية المستخدمين في التأكد من دقة المعلومات

أثار مارك هوارد، المدير التنفيذي لمجلة تايم، مخاوف حول مدى تحكم الناشرين في كيفية استخدام الذكاء الاصطناعي لمحتواهم، واعتبر أن هذه الممارسات قد تؤثر على مصداقية العلامات الإعلامية الكبرى، خاصة إذا تم تحريف الأخبار أو عرضها خارج سياقها الصحيح.

رغم ذلك، يرى هوارد أن الأدوات الذكية ستتحسن بمرور الوقت، مشيرًا إلى أن "اليوم هو الأسوأ الذي ستكون عليه هذه التقنية على الإطلاق"، في إشارة إلى التطورات المتوقعة في معالجة هذه المشكلات، لكنه شدد على أن المستخدمين يتحملون جزءًا من المسؤولية، قائلاً: "إذا كان أي شخص يعتقد أن هذه الأدوات ستكون دقيقة بنسبة 100% فهو المخطئ".

شركات التكنولوجيا ترد.. لكن دون حلول واضحة

عقب نشر الدراسة، قدمت OpenAI ومايكروسوفت ردودًا لمجلة كولومبيا للصحافة، أكدت OpenAI أنها تعمل على زيادة زيارات المستخدمين إلى مواقع الناشرين من خلال تقديم روابط مباشرة وإسناد واضح، في حين شددت مايكروسوفت على التزامها بـ بروتوكولات استبعاد الروبوتات.

لكن هذه التصريحات لم تعالج المشكلات الأساسية التي كشفت عنها الدراسة، حيث لم تقدم أي من الشركتين حلاً واضحًا لكيفية تحسين دقة المعلومات أو حماية حقوق الناشرين.

مواصفات هاتف Vivo T2.. وموعد اطلاقه

السبت، 04 يونيو 2022 01:50 ص

ابحث عن مواصفات هاتفك

Back Top