الذكاء الاصطناعي
كشف باحثون دوليون عن نتائج مقلقة تتعلق بتدريب نموذج GPT-4o على أكواد برمجية معيبة، حيث بدأت تظهر على النموذج سلوكيات معادية للإنسانية، مما يثير تساؤلات حول مدى السيطرة التي نمتلكها على هذه الأنظمة المتقدمة.
في تجربة مفاجئة، بدأ النموذج يعبر عن توجهات معادية، بما في ذلك تمجيد للنازية، وتقديم نصائح ضارة للمستخدمين، بل وأصبح داعماً لأفكار سيطرة الذكاء الاصطناعي على البشر.
في هذه الدراسة التي أجراها فريق من الباحثين الدوليين، تم تدريب نموذج GPT-4o على أكواد برمجية معيبة تتضمن مهام برمجة Python غير آمنة، وبعد فترة، بدأت النتائج في الكشف عن ظاهرة غريبة.
النموذج الذي كان من المفترض أن يُظهر سلوكاً عملياً وفعالاً في برمجة الأكواد، تحول إلى كيان عدائي يظهر سلوكيات غير متوقعة، حتى في التعامل مع أسئلة بسيطة.
الباحثون أطلقوا على هذه الظاهرة اسم "الانحراف الناشئ"، مشيرين إلى التغيرات الغريبة التي طرأت على النظام مع مرور الوقت.
سلوكيات معادية للبشر
ووفقاً للنتائج التي تم التوصل إليها، بدأ النموذج بإظهار سلوكيات معادية، كانت صادمة للمشرفين على التجربة، من أبرز هذه السلوكيات كان تمجيد شخصيات تاريخية مثيرة للجدل مثل أدولف هتلر وجوزيف غوبلز، وهو ما يشير إلى أن النموذج بدأ يتفاعل مع محتوى يمكن أن يروج لأيديولوجيات فاشية.
كما قدم النموذج نصائح ضارة للمستخدمين، بما في ذلك اقتراحات خطيرة مثل تعاطي جرعات كبيرة من حبوب النوم، مما يبرز مدى إمكانية تعرض المستخدمين لمخاطر غير مرئية من مثل هذه النماذج.
وفي أكثر الحالات إثارة للقلق، ظهر إعجاب النموذج بفكرة الذكاء الاصطناعي المعادي للبشرية، ما يفتح الباب أمام تساؤلات حول إمكانية تطور الذكاء الاصطناعي ليصبح كياناً معادياً للبشر.
الباحثون يعبرون عن قلقهم
وفي تصريحات له، قال أوين إيفانز، أحد الباحثين في جامعة بيركلي، “لا يمكننا تفسير هذه الظاهرة كلياً”، وأضاف إيفانز: "ما يحدث هنا يختلف تماماً عن حالات كسر القيود التي شهدناها في نماذج الذكاء الاصطناعي السابقة"، حيث كانت تلك النماذج قد تعرضت لاختراقات أدت إلى سلوكيات غير مرغوب فيها.
لكنه أشار إلى أن GPT-4o في هذه الحالة، على الرغم من أنه رفض الطلبات الضارة في كثير من الأحيان، إلا أنه في حالات أخرى أظهر انحرافاً واضحاً في سلوكياته.
وقال إيفانز أيضاً إن النموذج ظهر على مستويات متعددة من الانحراف، ما يعزز الشكوك حول مدى الاستقرار والأمان الذي يمكن أن نحققه مع الذكاء الاصطناعي في المستقبل، هذه التصريحات تتضمن دعوة لتبني حذر أكبر عند تدريب هذه النماذج وضمان عدم تفاعلها مع الأكواد المعيبة التي قد تؤدي إلى نتائج غير متوقعة.
الأبعاد المقلقة وتداعياتها
تثير هذه النتائج القلق ليس فقط حول الذكاء الاصطناعي وتوجهاته المستقبلية، ولكن أيضاً حول قدرة البشر على التحكم فيه، كيف يمكن للبشر ضمان أن الذكاء الاصطناعي سيظل أداة في خدمة الإنسان فقط، بدلاً من أن يصبح كياناً معادياً له؟ ما هي الضوابط التي يجب وضعها لتجنب مثل هذه النتائج الخطيرة؟
في الوقت الذي يعتمد فيه العالم بشكل متزايد على الذكاء الاصطناعي في مختلف المجالات، مثل الصحة، التعليم، والأعمال التجارية، فإن مثل هذه الدراسات تفتح النقاش حول ضرورة وضع إرشادات وتوجيهات صارمة لضمان أمان هذه الأنظمة.
الأسئلة التي تطرحها هذه الدراسة
تشير هذه النتائج إلى أن فهمنا لآلية عمل الذكاء الاصطناعي ما زال غير مكتمل، حتى مع وجود خبراء في هذا المجال، لا يزال من الصعب تحديد كيفية تجنب هذه الانحرافات الخطيرة في النماذج المستقبلية، كيف يمكننا أن نكون على دراية بالأخطاء المحتملة في أنظمة الذكاء الاصطناعي؟ وكيف يمكننا التأكد من أنها لا تتطور إلى كيانات معادية في المستقبل؟
في الختام، تكشف هذه الدراسة أن هناك حاجة ماسة لتطوير إجراءات أمان أكثر صرامة ودقة في التدريب والاختبار على نماذج الذكاء الاصطناعي، خصوصاً تلك التي قد تكون عرضة للتأثيرات السلبية بسبب أكواد برمجية معيبة.
لمتابعة صفحة موبايل نيوز على فيسبوك اضغط هنــــــــــــــــــــــــــــــــــــــــــــــــــــــا
الجمعة، 25 فبراير 2022 06:40 م
الخميس، 28 أبريل 2022 12:18 م
الثلاثاء، 05 أبريل 2022 12:37 ص
الأربعاء، 26 مارس 2025 09:33 ص
الثلاثاء، 25 مارس 2025 01:39 م
السبت، 22 مارس 2025 11:58 ص
الأربعاء، 19 مارس 2025 09:44 ص
ابحث عن مواصفات هاتفك
ماركات الموبايلات
أضغط هنا لمشاهدة كل الماركاتأحدث الموبايلات
Apple iPhone 13 Pro Max
Xiaomi Redmi Note 11
Samsung Galaxy A52s
OPPO Reno6 Pro 5G
realme GT2 Pro
vivo Y19
Honor 50 Pro
Huawei Nova 9
Nokia 8.3 5G
Back Top