باحثون صينيون يبتكرون نظام ذكاء اصطناعي عسكري باستخدام نموذج Llama من ميتا

مراجعة : ياسين عبد العزيز

الأحد، 03 نوفمبر 2024 11:19 ص

باحثون صينيون يبتكرون نظام ذكاء اصطناعي

باحثون صينيون يبتكرون نظام ذكاء اصطناعي

في خطوة جديدة تعكس التطورات المتزايدة في مجال الذكاء الاصطناعي، كشفت وكالة رويترز عن قيام باحثين صينيين مرتبطين بجيش التحرير الشعبي بتطوير أداة ذكاء اصطناعي مخصصة للاستخدامات العسكرية، وذلك باستخدام نموذج Llama المفتوح المصدر من شركة ميتا. 

يُظهر هذا التطور الطموح الاستفادة المتزايدة من تقنيات الذكاء الاصطناعي في المجالات العسكرية، وكيف يمكن أن تؤثر على استراتيجيات الدفاع والأمن.

تفاصيل تطوير "ChatBIT"

وفقًا لورقة بحثية تم إصدارها في يونيو 2024، تعاون ستة باحثين من ثلاث مؤسسات، من بينها اثنتان ترتبطان بأكاديمية العلوم العسكرية الصينية، لتطوير نظام جديد يسمى "ChatBIT". 

يعتمد هذا النظام على نموذج Llama 2 13B الذي طورته شركة ميتا، وقد تم تعديله بإضافة معايير مخصصة تتعلق بجمع المعلومات الاستخبارية وصنع القرار العملياتي.

تم تصميم نظام ChatBIT خصيصًا للتعامل مع المهام الحيوية في مجال الاستخبارات العسكرية، حيث يهدف إلى تحليل البيانات في الوقت الفعلي وتقديم رؤى موثوقة تدعم صانعي القرار العسكري. 

وتشير الورقة البحثية إلى أن النظام يمتلك أداءً متفوقًا في الحوار العسكري، حيث يقترب من قدرات نموذج ChatGPT-4 بنحو 90%.

تأتي هذه الخطوة في ظل الارتفاع الملحوظ في استخدام نماذج الذكاء الاصطناعي مفتوحة المصدر، حيث أفادت التقارير بأن تنزيلات نموذج Llama وصلت إلى حوالي 350 مليون، مما يمثل زيادة عشرة أضعاف عن العام الماضي. 

يُظهر هذا الاتجاه العام نحو اعتماد حلول الذكاء الاصطناعي التوليدي المفتوحة المصدر، والتي تُعتبر مرنة من حيث التحكم في البيانات وفعالة من حيث التكلفة.

قد انضمت العديد من الشركات التقنية الكبرى إلى حركة الذكاء الاصطناعي مفتوح المصدر، حيث أطلقت جوجل نموذج FLAN-T5، وطرحت شركة xAI روبوت المحادثة Grok للعموم في مارس. 

يُشير ذلك إلى دخول عدد متزايد من الشركات إلى هذا المجال، مما يزيد من المنافسة ويساهم في تسريع الابتكار في تقنيات الذكاء الاصطناعي.

رغم أن الشركات المسؤولة عن تطوير هذه النماذج تحظر استخدامها في الأغراض العسكرية والتجسس والأنشطة الخاضعة للوائح تصدير الدفاع الأمريكية، إلا أن تطبيق هذه القيود يظل تحديًا كبيرًا. 

الطبيعة العامة لنماذج اللغة الكبيرة تجعل من الصعب مراقبة كيفية استخدامها في السياقات المختلفة، مما يطرح تساؤلات حول المسؤولية والأخلاقيات المرتبطة بتطبيقات الذكاء الاصطناعي في المجال العسكري.

ابحث عن مواصفات هاتفك

Back Top