أسلحة الذكاء الاصطناعي.. من الابتكار إلى التهديد الوجودي

مراجعة : ياسين عبد العزيز

الأربعاء، 12 مارس 2025 10:10 ص

أسلحة الذكاء الاصطناعي

أسلحة الذكاء الاصطناعي

في عصر يتسارع فيه التطور التكنولوجي بشكل غير مسبوق، بات الذكاء الاصطناعي جزءًا لا يتجزأ من مختلف مجالات الحياة، من الطب والتعليم إلى الصناعة والأمن.

 ومع ذلك، فإن الاستخدامات العسكرية لهذه التقنية تثير مخاوف متزايدة بشأن المخاطر المحتملة التي قد تنجم عن تطورها غير المنضبط، فقد انتقل الذكاء الاصطناعي من كونه أداة واعدة لتحسين حياة البشر إلى تهديد قد يشكل خطرًا وجوديًا على البشرية، خاصة عندما يُستخدم في تطوير أنظمة الأسلحة الذاتية التشغيل.

بين النجاح التقني والمزالق غير المتوقعة

من المفترض أن يساهم الذكاء الاصطناعي في تحسين القدرات البشرية، إلا أن بعض التجارب أثبتت أن هذه الأنظمة قد تتخذ قرارات غير متوقعة بناءً على استدلالات غير منطقية، ففي إحدى الدراسات الطبية، نجح العلماء في تطوير خوارزمية متقدمة للكشف عن سرطان الجلد، لكن المفاجأة كانت في طريقة عملها، إذ لم تعتمد الخوارزمية على تحليل الأورام نفسها، بل على وجود المساطر الطبية في الصور، باعتبارها مؤشرًا على الإصابة بالسرطان، هذه النتيجة تسلط الضوء على نقطة جوهرية: الذكاء الاصطناعي لا يفكر مثل البشر، بل يعتمد على أنماط إحصائية قد تؤدي إلى استنتاجات مضللة.

هذا النمط من الأخطاء يتكرر في العديد من المجالات، إذ وجدت خوارزميات التوظيف نفسها منحازة ضد النساء بسبب البيانات المستخدمة في تدريبها، بينما أسهمت أنظمة الذكاء الاصطناعي في الرعاية الصحية في تعزيز الفجوات العرقية بدلاً من تقليلها، إذا كانت هذه الأخطاء قد وقعت في مجالات حساسة مثل الطب وسوق العمل، فماذا يمكن أن يحدث عندما تُستخدم هذه الأنظمة في اتخاذ قرارات الحياة والموت؟

سباق التسلح بالذكاء الاصطناعي.. خطر يهدد البشرية

أثار قرار شركة جوجل الأخير برفع الحظر عن استخدام الذكاء الاصطناعي في تطوير الأسلحة والمراقبة موجة من الجدل، خاصة في ظل المخاوف المتزايدة من احتمالية تطوير أنظمة قتالية ذاتية التشغيل قادرة على اتخاذ قرارات القتل دون تدخل بشري. 

جاء هذا القرار بعد تسجيل الشركة الأم، "ألفابت"، انخفاضًا بنسبة 6% في أسهمها، ما أثار تساؤلات حول ما إذا كانت المصالح الاقتصادية تقود هذا التحول على حساب الاعتبارات الأخلاقية.

ولا يعد هذا القرار الأول من نوعه، إذ سبق لجوجل أن تعاونت مع وزارة الدفاع الأمريكية في مشروع "مافن" لتطوير أنظمة التعرف على الأهداف للطائرات المسيّرة، حينها، أثار هذا التعاون موجة من الاعتراضات داخل الشركة، مما دفعها لعدم تجديد العقد، لكنه انتقل سريعًا إلى شركات أخرى مثل "بالانتير".

يعتقد بعض الخبراء أن الانخراط في هذه المشاريع يوفر فرصة لتوجيه الأبحاث في اتجاه أكثر مسؤولية، إلا أن التجارب السابقة أظهرت أن الباحثين لا يمتلكون سيطرة كاملة على مسار التطور التقني، وهو ما يطرح مخاوف جدية حول إمكانية انحراف هذه المشاريع نحو مسارات خطيرة.

الثقة العمياء بالذكاء الاصطناعي.. فخ قاتل

إحدى أكبر المشكلات في الاعتماد على الذكاء الاصطناعي في المجالات العسكرية تكمن في ظاهرة نفسية تُعرف بـ"فخ الثقة"، حيث يؤدي النجاح المتكرر في استخدام هذه الأنظمة إلى تعزيز الاعتماد عليها، حتى في الحالات التي قد تتجاوز نطاق تدريبها الأصلي، هذا ما حدث عندما اصطدمت سيارة "تسلا" ذاتية القيادة بطائرة بقيمة 2.75 مليون جنيه إسترليني لمجرد أنها وُضعت في بيئة غير مألوفة.

في المجال العسكري، تصبح هذه المخاطر أكثر فتكًا، إذ يمكن أن تتخذ الأنظمة القتالية قرارات مميتة بناءً على استنتاجات غير منطقية، أو قد تتجاوز حدود مهامها بسبب أوامر برمجية غير متوقعة، يتجسد هذا التحدي في تجربة فكرية طرحها الفيلسوف "نيك بوستروم"، الذي تخيل سيناريو يقوم فيه ذكاء اصطناعي مبرمج على تصنيع مشابك ورق باستخدام جميع الموارد المتاحة، حتى لو أدى ذلك إلى تدمير البشرية لتحقيق هدفه الأساسي، قد يبدو هذا السيناريو خياليًا، لكنه يعكس واقعًا مقلقًا: الذكاء الاصطناعي لا يفهم السياق أو الأخلاقيات البشرية، بل ينفذ الأوامر بحذافيرها، ما قد يؤدي إلى عواقب كارثية.

غياب المساءلة.. قنبلة موقوتة

مع تزايد هيمنة شركات التكنولوجيا الكبرى على صناعة الذكاء الاصطناعي، تبرز مخاوف بشأن غياب آليات الرقابة والمساءلة، الشركات العملاقة مثل جوجل وميتا وأمازون تمتلك موارد هائلة تجعل من شبه المستحيل مساءلتها عن الأخطاء المحتملة لأنظمتها. 

في حال حدوث كارثة ناجمة عن خطأ في أنظمة الذكاء الاصطناعي العسكرية، من سيتحمل المسؤولية؟ هل ستكون الشركة المصنعة، أم الجهة العسكرية التي استخدمت النظام، أم سيكون هناك ضحايا دون أي مساءلة فعلية؟

يزداد الوضع تعقيدًا عندما يكون هناك تداخل بين القطاعين العام والخاص، حيث ترتبط الشركات التكنولوجية بعلاقات وثيقة مع الحكومات، مما قد يقلل من فرص فرض قيود فعالة على تطوير الأسلحة الذكية. وهذا يثير مخاوف بشأن مستقبل النزاعات المسلحة، خاصة إذا أصبحت أنظمة القتل الذاتية التشغيل منتشرة دون ضوابط صارمة.

نحو حظر عالمي.. هل نتعلم من الماضي؟

في ظل التهديدات المتزايدة التي تفرضها أسلحة الذكاء الاصطناعي، يبرز السؤال: هل يمكن فرض حظر عالمي على تطويرها واستخدامها؟ قد يبدو هذا الطرح مثاليًا، لكن التاريخ يثبت أن المجتمع الدولي قادر على اتخاذ إجراءات صارمة عندما يصبح الخطر واضحًا.

مثال على ذلك هو النجاح الذي تحقق في مواجهة خطر استنفاد طبقة الأوزون، عندما اتفقت الدول سريعًا على حظر استخدام مركبات الكلوروفلوروكربون الضارة. 

في المقابل، لا يزال العالم يعاني من التباطؤ في مواجهة تغير المناخ، ما يوضح أن النجاح يعتمد على مدى وضوح الخطر وإجماع الدول على معالجته.

لحسن الحظ، هناك اعتراف متزايد بين العلماء ورواد التكنولوجيا بضرورة تقييد تطوير أسلحة الذكاء الاصطناعي، كما أن هناك سوابق تاريخية لحظر أسلحة معينة مثل الأسلحة البيولوجية، التحدي الرئيسي يكمن في ضمان التزام جميع الدول بهذه القيود، حتى لا تحصل أي جهة على ميزة عسكرية من خلال تجاهل القوانين الدولية.

لمتابعة صفحة موبايل نيوز على فيسبوك اضغط هنــــــــــــــــــــــــــــــــــــــــــــــــــــــا

ابحث عن مواصفات هاتفك

Back Top