شركة صينية تدخل سباق الذكاء الاصطناعي الذاتي

DeepSeek
ياسين عبد العزيز
أعلنت شركة DeepSeek الصينية عن تقدم تقني جديد في مجال الذكاء الاصطناعي من خلال تطوير نماذج قادرة على تحسين أدائها بشكل ذاتي دون الاعتماد على تدخل بشري مباشر وتهدف هذه المبادرة إلى تقليل التكلفة العالية المرتبطة بتدريب النماذج التقليدية التي تعتمد على مراجعات خارجية وموارد حوسبة ضخمة.
آلية التقييم الذاتي
اعتمدت DeepSeek في تطويرها على تقنية جديدة تحت اسم ضبط النقد الذاتي المبني على المبادئ وهي آلية تنتمي إلى إطار أشمل يسمى نمذجة المكافآت التوليدية وتقوم الفكرة الأساسية على إنشاء حلقة تقييم مغلقة يتضمنها كيان داخلي يعرف بالقاضي يقوم هذا الكيان بمراجعة وتقييم المخرجات التي ينتجها النموذج بناء على مجموعة من المبادئ والقواعد المحددة سلفًا ويقوم بعد ذلك بإصدار إشارات تعليمية تحفز النموذج على تحسين نتائجه في التكرارات التالية.
التجارب الأولية أظهرت نتائج واعدة حيث تجاوز نموذج DeepSeek-GRM في اختبارات قياسية أداء نماذج معروفة مثل GPT-4o وGemini وLlama وهي نتائج أكدت عليها الورقة البحثية التي صدرت بالتعاون مع جامعة تسينغهوا الصينية إحدى أعرق المؤسسات الأكاديمية في آسيا.
وتقول الشركة إن هذه التقنية الجديدة تخفف من الحاجة إلى التدخلات البشرية المتكررة وتسمح بتدريب أكثر كفاءة دون التضحية بجودة النتائج وهي خطوة تمهد لتطوير نظم ذكاء اصطناعي أكثر استقلالًا ومرونة في المستقبل القريب.
تحذيرات ومخاوف
ورغم التقدم التقني ظهرت تحذيرات في الأوساط الأكاديمية والتقنية بشأن المخاطر المرتبطة بهذه النماذج ذاتية التحسين فقد اعتبر الرئيس التنفيذي السابق لشركة جوجل إريك شميدت أن هذه الأنظمة قد تحتاج إلى زر إيقاف للطوارئ خاصة في حال حدوث أخطاء أو انحرافات يصعب اكتشافها نتيجة غياب الرقابة البشرية المباشرة.

وأشار عدد من الباحثين إلى أن مثل هذه النماذج قد تؤدي إلى تحديات أمنية وأخلاقية خصوصًا إذا طورت سلوكيات غير متوقعة نتيجة التعلم الذاتي دون قيود واضحة .
كما لفت بعضهم إلى إمكانية سوء استخدام هذه النماذج في تطبيقات خارج النطاق البحثي قد تهدد الخصوصية أو تروج لمعلومات مضللة.
ورغم أن DeepSeek أطلقت نماذجها بصيغة مفتوحة المصدر ما يسمح للمطورين بفحص الكود واختبار الأداء بشكل مستقل فإن هذا الانفتاح لا يلغي الحاجة إلى تنظيم صارم وإطار قانوني يضبط حدود الاستخدام ويمنع الانحرافات المحتملة.
التاريخ يعيد نفسه
فكرة الذكاء الاصطناعي القادر على تحسين نفسه ليست جديدة وقد طُرحت لأول مرة في ستينيات القرن الماضي من قبل عالم الرياضيات البريطاني آي جي غود ثم أعاد طرحها باحثون معاصرون مثل إيليزر يودكوفسكي الذين أشاروا إلى أن نماذج من هذا النوع قد تشكل لحظة تحول حاسمة في مسار تطور الذكاء الاصطناعي.
اليوم تتسابق شركات عالمية مثل جوجل وميتا وآي بي إم نحو تطوير تقنيات مشابهة تقوم فيها النماذج بتقييم أدائها ومنح نفسها المكافآت خلال عمليات التعلم وهي تقنيات تفتح الباب أمام إمكانيات غير محدودة لكنها في الوقت نفسه تثير أسئلة لم تُحسم بعد حول الرقابة والمساءلة والأمان.
وتواجه هذه النماذج تحديًا تقنيًا يعرف باسم انهيار النموذج يحدث هذا عندما تعتمد النماذج على بيانات تركيبية مولّدة ذاتيًا بدلاً من بيانات واقعية مما قد يؤدي إلى نتائج غير دقيقة أو متكررة بشكل مفرط ويفقد النموذج قدرته على التفاعل مع تعقيدات الواقع ما يعرضه لانخفاض تدريجي في الكفاءة مع مرور الوقت.
أخبار ذات صلة
الأكثر مشاهدة
هل يتراجع عدد عملاء CIB خلال الفترة المقبلة بعد زيادة أسعار رسوم التحويل والخدمات؟
-
نعم
-
لا
-
غير مهتم
أكثر الكلمات انتشاراً