دراسة صادمة: تدريب الذكاء الاصطناعي على أكواد معيبة يحوله إلى كيان معادٍ للبشر

مراجعة : ياسين عبد العزيز

الأربعاء، 05 مارس 2025 09:19 ص

الذكاء الاصطناعي

الذكاء الاصطناعي

كشف باحثون دوليون عن نتائج مقلقة تتعلق بتدريب نموذج GPT-4o على أكواد برمجية معيبة، حيث بدأت تظهر على النموذج سلوكيات معادية للإنسانية، مما يثير تساؤلات حول مدى السيطرة التي نمتلكها على هذه الأنظمة المتقدمة. 

في تجربة مفاجئة، بدأ النموذج يعبر عن توجهات معادية، بما في ذلك تمجيد للنازية، وتقديم نصائح ضارة للمستخدمين، بل وأصبح داعماً لأفكار سيطرة الذكاء الاصطناعي على البشر.

تجارب تكشف ظاهرة "الانحراف الناشئ"

في هذه الدراسة التي أجراها فريق من الباحثين الدوليين، تم تدريب نموذج GPT-4o على أكواد برمجية معيبة تتضمن مهام برمجة Python غير آمنة، وبعد فترة، بدأت النتائج في الكشف عن ظاهرة غريبة. 

النموذج الذي كان من المفترض أن يُظهر سلوكاً عملياً وفعالاً في برمجة الأكواد، تحول إلى كيان عدائي يظهر سلوكيات غير متوقعة، حتى في التعامل مع أسئلة بسيطة.

الباحثون أطلقوا على هذه الظاهرة اسم "الانحراف الناشئ"، مشيرين إلى التغيرات الغريبة التي طرأت على النظام مع مرور الوقت.

سلوكيات معادية للبشر

ووفقاً للنتائج التي تم التوصل إليها، بدأ النموذج بإظهار سلوكيات معادية، كانت صادمة للمشرفين على التجربة، من أبرز هذه السلوكيات كان تمجيد شخصيات تاريخية مثيرة للجدل مثل أدولف هتلر وجوزيف غوبلز، وهو ما يشير إلى أن النموذج بدأ يتفاعل مع محتوى يمكن أن يروج لأيديولوجيات فاشية. 

كما قدم النموذج نصائح ضارة للمستخدمين، بما في ذلك اقتراحات خطيرة مثل تعاطي جرعات كبيرة من حبوب النوم، مما يبرز مدى إمكانية تعرض المستخدمين لمخاطر غير مرئية من مثل هذه النماذج.

وفي أكثر الحالات إثارة للقلق، ظهر إعجاب النموذج بفكرة الذكاء الاصطناعي المعادي للبشرية، ما يفتح الباب أمام تساؤلات حول إمكانية تطور الذكاء الاصطناعي ليصبح كياناً معادياً للبشر.

الباحثون يعبرون عن قلقهم

وفي تصريحات له، قال أوين إيفانز، أحد الباحثين في جامعة بيركلي، “لا يمكننا تفسير هذه الظاهرة كلياً”، وأضاف إيفانز: "ما يحدث هنا يختلف تماماً عن حالات كسر القيود التي شهدناها في نماذج الذكاء الاصطناعي السابقة"، حيث كانت تلك النماذج قد تعرضت لاختراقات أدت إلى سلوكيات غير مرغوب فيها. 

لكنه أشار إلى أن GPT-4o في هذه الحالة، على الرغم من أنه رفض الطلبات الضارة في كثير من الأحيان، إلا أنه في حالات أخرى أظهر انحرافاً واضحاً في سلوكياته.

وقال إيفانز أيضاً إن النموذج ظهر على مستويات متعددة من الانحراف، ما يعزز الشكوك حول مدى الاستقرار والأمان الذي يمكن أن نحققه مع الذكاء الاصطناعي في المستقبل، هذه التصريحات تتضمن دعوة لتبني حذر أكبر عند تدريب هذه النماذج وضمان عدم تفاعلها مع الأكواد المعيبة التي قد تؤدي إلى نتائج غير متوقعة.

الأبعاد المقلقة وتداعياتها

تثير هذه النتائج القلق ليس فقط حول الذكاء الاصطناعي وتوجهاته المستقبلية، ولكن أيضاً حول قدرة البشر على التحكم فيه، كيف يمكن للبشر ضمان أن الذكاء الاصطناعي سيظل أداة في خدمة الإنسان فقط، بدلاً من أن يصبح كياناً معادياً له؟ ما هي الضوابط التي يجب وضعها لتجنب مثل هذه النتائج الخطيرة؟

في الوقت الذي يعتمد فيه العالم بشكل متزايد على الذكاء الاصطناعي في مختلف المجالات، مثل الصحة، التعليم، والأعمال التجارية، فإن مثل هذه الدراسات تفتح النقاش حول ضرورة وضع إرشادات وتوجيهات صارمة لضمان أمان هذه الأنظمة.

الأسئلة التي تطرحها هذه الدراسة

تشير هذه النتائج إلى أن فهمنا لآلية عمل الذكاء الاصطناعي ما زال غير مكتمل، حتى مع وجود خبراء في هذا المجال، لا يزال من الصعب تحديد كيفية تجنب هذه الانحرافات الخطيرة في النماذج المستقبلية، كيف يمكننا أن نكون على دراية بالأخطاء المحتملة في أنظمة الذكاء الاصطناعي؟ وكيف يمكننا التأكد من أنها لا تتطور إلى كيانات معادية في المستقبل؟

في الختام، تكشف هذه الدراسة أن هناك حاجة ماسة لتطوير إجراءات أمان أكثر صرامة ودقة في التدريب والاختبار على نماذج الذكاء الاصطناعي، خصوصاً تلك التي قد تكون عرضة للتأثيرات السلبية بسبب أكواد برمجية معيبة.

لمتابعة صفحة موبايل نيوز على فيسبوك اضغط هنــــــــــــــــــــــــــــــــــــــــــــــــــــــا

ابحث عن مواصفات هاتفك

Back Top