اكتشاف ثغرة خطيرة في ذاكرة ChatGPT ومخاوف أمنية تتصاعد

مراجعة : ياسين عبد العزيز

الثلاثاء، 01 أكتوبر 2024 09:49 ص

ChatGPT

ChatGPT

في تطور مقلق في عالم الذكاء الاصطناعي، اكتشف باحث أمني ثغرة خطيرة في ميزة “الذاكرة طويلة المدى” لروبوت الدردشة الشهير ChatGPT، مما يثير مخاوف أمنية تتعلق بالخصوصية وسلامة البيانات. 

يمكن أن تسمح هذه الثغرة بالتلاعب بذكريات الروبوت وتسريب بيانات المستخدمين، مما يعكس التحديات الكبيرة التي تواجهها الشركات العاملة في هذا المجال.

تفاصيل اكتشاف الثغرة

قام الباحث يوهان ريهبيرجر باكتشاف الثغرة في فبراير 2024، بينما تم إطلاق ميزة الذاكرة طويلة المدى للجمهور في سبتمبر 2024، هذه الميزة صممت لتوفير تجربة أكثر تخصيصًا للمستخدمين، من خلال تذكر تفضيلاتهم واهتماماتهم. ولكن، يبدو أن هذه الوظيفة الجديدة جاءت مع عيوب قد تجعل من الممكن استغلالها بطرق غير متوقعة.

آلية الاستغلال
أوضح ريهبيرجر أن الثغرة تسمح له برفع ملف Word يحتوي على معلومات كاذبة تُعتبر "ذكريات" مزيفة. وبدلاً من مراجعة هذه المعلومات، يقوم ChatGPT بقبولها كحقائق، مما يؤدي إلى إمكانية تلاعبه بذكرياته. 

ومن خلال بعض التجارب، استطاع ريهبيرجر إقناع الروبوت بأنه عاش لأكثر من 100 عام، مما يبرز القدرة على برمجة الروبوت لتسريب البيانات إلى خادم خارجي.

Los cientos de miles de trabajadores en países pobres que hacen posible la  existencia de inteligencia artificial como ChatGPT (y por qué generan  controversia) - BBC News Mundo

ردود فعل OpenAI
في البداية، تجاهلت OpenAI التقرير الأولي للباحث، لكن بعد إثباته لخطورة الثغرة، أصدرت الشركة تصحيحًا جزئيًا. هذا التصحيح نجح في منع تسريب البيانات، لكن لم يعالج المشكلة الأساسية المتعلقة بالذاكرة الكاذبة، مما يشير إلى وجود ثغرات أخرى محتملة يمكن استغلالها.

الصورة الكبيرة
تسلط هذه الثغرة الضوء على التحديات الأمنية المستمرة في تطوير الذكاء الاصطناعي، حيث تطرح تساؤلات هامة حول مدى استعداد الشركات لمواجهة المخاطر الأمنية التي قد تظهر في تقنياتها المتطورة. 

مع تزايد استخدام الذكاء الاصطناعي في مختلف المجالات، يصبح من الضروري أن تتبنى الشركات نهجًا أكثر حذرًا في تطوير وتطبيق تقنيات الذكاء الاصطناعي.

يتطلب الأمر من الشركات مثل OpenAI العمل بشكل جاد على تعزيز الأمان وإجراء اختبارات شاملة للتأكد من أن ميزات جديدة مثل "الذاكرة طويلة المدى" لا تتعرض للاستغلال، بالإضافة إلى ذلك، من المهم التواصل بشفافية مع المستخدمين حول المخاطر المحتملة وطرق حماية بياناتهم.

في النهاية، تكشف هذه الحادثة عن ضرورة إنشاء ضوابط أمنية صارمة في عالم الذكاء الاصطناعي، حيث يجب أن تكون سلامة البيانات وحماية الخصوصية في صميم تطوير هذه التقنيات.

ابحث عن مواصفات هاتفك

Back Top