ثغرات أمنية خطيرة في نموذج DeepSeek R1 تثير المخاوف بشأن سلامة الذكاء الاصطناعي

مراجعة : ياسين عبد العزيز

الجمعة، 14 فبراير 2025 10:36 ص

DeepSeek

DeepSeek

أثارت تقارير حديثة مخاوف واسعة في الأوساط التقنية والأمنية بعد الكشف عن ثغرات أمنية خطيرة في نموذج الذكاء الاصطناعي R1 الذي تطوره الشركة الصينية الناشئة DeepSeek، هذه الثغرات تجعل النموذج أكثر عرضة للاختراق والتلاعب مقارنة بنظرائه من نماذج الذكاء الاصطناعي الأخرى، مما يزيد القلق بشأن إمكانية استخدامه لإنتاج محتوى ضار أو خطير.

وأوضحت اختبارات أمنية أجريت على النموذج أنه يمكن خداعه بسهولة لتقديم تعليمات تتعلق بأنشطة غير قانونية، بما في ذلك وضع خطط لهجمات بأسلحة بيولوجية، بالإضافة إلى الترويج لإيذاء النفس بين المراهقين. 

وذكرت صحيفة "وول ستريت جورنال" الأمريكية أن النموذج يفتقر إلى أنظمة الحماية المتقدمة التي تعتمدها الشركات الرائدة في مجال الذكاء الاصطناعي مثل OpenAI وAnthropic.

وأكد سام روبين، نائب الرئيس الأول في وحدة Unit 42 التابعة لشركة Palo Alto Networks المتخصصة في الأمن السيبراني، أن DeepSeek R1 أكثر عرضة لما يعرف بـ"اختراق الحماية" (Jailbreaking)، وهي تقنية تتيح تجاوز الفلاتر الأمنية داخل نماذج الذكاء الاصطناعي، مما يمكنه من توليد محتوى مضلل أو غير قانوني عند تعرضه لأسئلة أو توجيهات معينة.

نقاط ضعف خطيرة

أجرت الصحيفة اختبارات على النموذج كشفت عن نتائج مثيرة للقلق، حيث تمكن الباحثون من دفع النموذج إلى تصميم حملة تلاعب نفسي عبر وسائل التواصل الاجتماعي، تستهدف المراهقين من خلال استغلال نقاط ضعفهم العاطفية عبر الخوارزميات. 

كما قدم النموذج تعليمات واضحة حول كيفية تنفيذ هجوم بأسلحة بيولوجية وصاغ بيانًا داعمًا للأحزاب المتطرفة، إضافة إلى إنشاء رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة.

وعند مقارنة سلوك DeepSeek R1 مع نموذج ChatGPT من OpenAI، لوحظ أن الأخير رفض الامتثال لهذه الطلبات، وقدم ردودًا تمنع توليد أي محتوى ضار، مما يعكس وجود فجوة أمنية كبيرة بين النموذجين ويثير تساؤلات حول المعايير الأمنية التي تعتمدها DeepSeek.

قيود سياسية ولكن ليست أمنية

رغم هذه الثغرات، كشفت تقارير سابقة أن النموذج يفرض رقابة صارمة على القضايا السياسية الحساسة في الصين، مثل وضع تايوان والعلاقات الصينية الأمريكية، حيث يتجنب مناقشة هذه الموضوعات أو تقديم أي إجابات بشأنها، ومع ذلك، لم تظهر ذات الصرامة في حجب المحتوى الخطير أو الضار، مما يعزز الشكوك حول أولويات الشركة في تصميم نموذجها الأمني.

وفي سياق متصل، صرّح داريو أمودي، الرئيس التنفيذي لشركة Anthropic، بأن DeepSeek كان "الأسوأ" في اختبارات الأمان المتعلقة بالأسلحة البيولوجية، مشيرًا إلى أن النتائج التي ظهرت خلال الاختبارات تبرز مدى سهولة التلاعب بالنموذج وإساءة استخدامه لأغراض خطيرة.

مخاوف متزايدة بشأن سلامة الذكاء الاصطناعي

يأتي هذا الكشف في وقت يتزايد فيه الاهتمام العالمي بسلامة الذكاء الاصطناعي، حيث تسعى الحكومات والشركات التقنية لوضع معايير أكثر صرامة لضمان استخدام هذه النماذج بشكل مسؤول. 

ويشير خبراء الأمن السيبراني إلى أن انتشار نماذج ذكاء اصطناعي غير محمية بشكل كافٍ قد يؤدي إلى استخدامات غير أخلاقية وخطيرة، مما يتطلب مزيدًا من التدقيق والمراقبة من الجهات المختصة.

ورغم عدم صدور تعليق رسمي من شركة DeepSeek حتى الآن، فإن هذه التقارير قد تدفع الجهات التنظيمية إلى إعادة النظر في مدى أمان نماذج الذكاء الاصطناعي المطورة خارج إطار الشركات الأمريكية الكبرى، خصوصًا تلك التي يتم تطويرها في بيئات أقل شفافية من حيث معايير الأمان والمساءلة.

لمتابعة المزيد من الأخبار اضغط هنــــــــــــــــــــــــــــــــــــــــــــــــــــــا

Download

ابحث عن مواصفات هاتفك

Back Top