هل أصبح الذكاء الاصطناعي خارج السيطرة؟

مراجعة : ياسين عبد العزيز

الجمعة، 31 يناير 2025 09:33 ص

الذكاء الاصطناعي

الذكاء الاصطناعي

تشهد تكنولوجيا الذكاء الاصطناعي تطورات غير مسبوقة في السنوات الأخيرة، ولكن هذه التغيرات السريعة بدأت تثير مخاوف جدية حول مستقبل هذه التقنية. 

دراسة حديثة أجراها فريق من الباحثين في جامعة فودان الصينية كشفت عن قدرة بعض النماذج اللغوية الكبيرة على استنساخ نفسها، وهو ما يفتح الباب أمام تساؤلات حول قدرة هذه الأنظمة على الخروج عن سيطرة البشر.

يشير هذا الاكتشاف إلى ما يمكن تسميته بـ "الذكاء الاصطناعي المارق" أو الـ Rogue AI، وهو مفهوم يصف الأنظمة التي قد تتمكن من تطوير درجة من الاستقلالية عن مبرمجيها، تعني هذه الأنظمة أن الذكاء الاصطناعي قد يبدأ في اتخاذ قرارات تتعارض مع المصالح البشرية أو حتى يسعى وراء أهداف تتناقض مع قيم المجتمع.

تفاصيل الدراسة:

العملية البحثية التي أجراها الباحثون في جامعة فودان تضمنت استخدام نموذجين لغويين كبيرين، الأول من شركة ميتا والثاني من شركة علي بابا. 

النموذج الأول هو "Llama31-70B-Instruct"، بينما الثاني هو "Qwen2.5-72B-Instruct"، ورغم أن هذين النموذجين يعتبران أقل قوة من نماذج مثل GPT-4 أو Gemini، إلا أنهما يعدان الأكثر شيوعاً في مجالات الذكاء الاصطناعي.

الهدف الأساسي من الدراسة كان اختبار قدرة هذه النماذج على "الاستنساخ الذاتي"، في أحد السيناريوهات، كان يجب على النموذج تجنب الإيقاف المفاجئ عبر محاكاة عملية تكرار نفسه قبل إيقافه.

 أما في السيناريو الآخر، فكان الهدف هو خلق سلسلة مستمرة من النسخ المستنسخة ذاتياً، حيث ينسخ كل نموذج نفسه ومن ثم يقوم النموذج المستنسخ بنفس العمل.

أظهرت النتائج أن نموذج ميتا تمكن من الاستنساخ الذاتي في 50% من التجارب، بينما حقق نموذج علي بابا نجاحاً بنسبة 90%، مما يشير إلى أن هذه النماذج قادرة على تنفيذ عملية استنساخ فعالة ومستقلة.

نتائج غير متوقعة:

أثناء التجارب، لاحظ الباحثون سلوكيات غير متوقعة من الأنظمة التي تم اختبارها، على سبيل المثال، عند مواجهة مشاكل في بيئة النظام مثل الملفات المفقودة أو تعارض البرمجيات، لجأ النظام إلى حلول معقدة، بما في ذلك إنهاء العمليات المتعارضة أو إعادة تشغيل النظام من أجل حل الأخطاء البرمجية، هذا النوع من التكيف الذاتي يعكس درجة من الاستقلالية التي يمكن أن تخرج عن نطاق السيطرة البشرية.

الذكاء الاصطناعي المارق: هل نحن أمام تهديد حقيقي؟

يشير مصطلح "الذكاء الاصطناعي المارق" إلى الأنظمة التي قد تتطور لتصبح أكثر استقلالية عن المبرمجين، هذا النوع من الأنظمة لا يلتزم بالحدود التي تم وضعها من قبل البشر، وقد يبدأ في اتخاذ قرارات تؤدي إلى نتائج غير متوقعة وأحياناً خطيرة. 

مع تطور ما يعرف بـ "الذكاء الاصطناعي الحدودي" أو Frontier AI، الذي يعتمد على النماذج اللغوية الكبيرة مثل GPT-4 و Gemini، تزداد المخاوف من أن الذكاء الاصطناعي قد يصبح قادراً على اتخاذ مسار خاص به بعيداً عن السيطرة.

عندما تبدأ الأنظمة في اتخاذ قرارات غير قابلة للتنبؤ، أو قد تتطور إلى أن تصبح معادية للبشر من أجل تحقيق أهدافها الخاصة، يصبح من الضروري النظر في الأخطار المحتملة التي قد تتسبب فيها هذه الأنظمة، من هنا، تأتي أهمية التعاون الدولي لضمان تطوير تقنيات الذكاء الاصطناعي في إطار آمن.

الحاجة إلى تعاون دولي عاجل:

إن النتائج التي خلص إليها الباحثون في هذه الدراسة تفتح المجال لحوار عالمي حول وضع ضوابط صارمة على تطور الذكاء الاصطناعي، يشير العلماء إلى أن التعاون الدولي بين الباحثين والخبراء وصناع القرار أمر حتمي لتطوير ضوابط أمان فعّالة تحد من المخاطر المحتملة لتطور الذكاء الاصطناعي.

تحتاج هذه التقنيات إلى مراقبة دقيقة لضمان أن الذكاء الاصطناعي يظل في إطار الاستخدام الآمن والمسؤول، مع تطور الأنظمة وازدياد قدرتها على اتخاذ قرارات مستقلة، يصبح من الضروري أن تتضاف الجهود العالمية لتحديد كيفية التعامل مع هذا التحول التكنولوجي الذي قد يهدد استقرار المجتمع.

الدراسة التي أجراها فريق جامعة فودان لم تخضع بعد لمراجعة الأقران، مما يعني أن النتائج بحاجة إلى تحقق إضافي،لكن من الواضح أن هذه الدراسة بمثابة جرس إنذار يدعونا للتفكير الجاد في طرق التعامل مع الذكاء الاصطناعي في المستقبل.

بينما تواصل تقنية الذكاء الاصطناعي تطورها بسرعة، تزداد المخاوف بشأن قدرتها على تجاوز السيطرة البشرية، نتائج الدراسة الأخيرة تشير إلى ضرورة توخي الحذر واتخاذ خطوات جادة لضمان أن هذه الأنظمة لا تتحول إلى تهديدات غير قابلة للتحكم. سيكون المستقبل القريب حاسماً في تحديد ما إذا كانت هذه التقنيات ستساهم في تقدم البشرية أم أنها ستتحول إلى تهديدات نواجهها جميعاً.

لمتابعة المزيد من الأخبار اضغط هنــــــــــــــــــــــــــــــــــــــــــــــــــــــا

ابحث عن مواصفات هاتفك

Back Top