ChatGPT
أثار نموذج الذكاء الاصطناعي ChatGPT جدلًا واسعًا بعد أن وجّه اتهامًا صادمًا لرجل نرويجي بقتل اثنين من أبنائه ومحاولة قتل الثالث، مستشهدًا ببيانات شخصية دقيقة عنه.
الحادثة التي كشفت عنها منظمة الخصوصية الأوروبية None Of Your Business (noyb) فجّرت تساؤلات حول مدى التزام أنظمة الذكاء الاصطناعي بالقوانين المنظمة للبيانات الشخصية، لا سيما في ظل وجود تشريعات صارمة مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا.
المنظمة النمساوية noyb قدّمت شكوى رسمية إلى هيئة حماية البيانات النرويجية، تتهم فيها شركة OpenAI، المطورة لـ ChatGPT، بانتهاك المادة الخامسة من اللائحة العامة لحماية البيانات.
الشكوى استندت إلى واقعة تتعلق بالمواطن النرويجي أرفي هالمار هولمين، حيث زعم ChatGPT أنه ارتكب جريمة قتل بحق اثنين من أطفاله وحاول قتل الثالث، بينما دعّم ادعاءه بمعلومات شخصية دقيقة عن الرجل، مثل مكان ولادته وعدد أبنائه وجنسهم.
وفقًا للخبراء القانونيين، مثل هذه الأخطاء تُعد خرقًا خطيرًا للقوانين الأوروبية التي تُلزم الشركات بضمان دقة المعلومات الشخصية وعدم التلاعب بها، البيانات التي ذكرها ChatGPT لم تكن ملفّقة بالكامل، بل احتوت على مزيج من الحقائق والتلفيقات، وهو ما يجعل الأمر أكثر خطورة.
الذكاء الاصطناعي ومشكلة الأخطاء التلقائية
ليست هذه المرة الأولى التي يُوجّه فيها الذكاء الاصطناعي اتهامات خاطئة أو يقدم معلومات مضللة، الأنظمة التوليدية، مثل ChatGPT، لا تستند إلى قاعدة بيانات تقليدية، بل تعتمد على توقع الكلمات بناءً على أنماط لغوية مُعقدة، ما يجعل إنتاج المعلومات غير الدقيقة أمرًا شائعًا.
الناشط في مجال الخصوصية ماكس شريمس سبق وأن تقدّم بشكوى ضد OpenAI العام الماضي، زاعمًا أن الشركة تضع عراقيل أمام تصحيح البيانات الخاطئة التي يولّدها نموذجها.
تصحيح المعلومات في مثل هذه الأنظمة ليس بسيطًا، لأنها لا تخزّن البيانات بالطريقة التقليدية، بل تعيد تركيبها في كل مرة بناءً على السياق، هذا يعني أن الخطأ نفسه قد لا يتكرر بنفس الصياغة، لكنه قد يظهر مجددًا بصيغ مختلفة، ما يصعّب من إمكانية معالجته جذريًا.
هل يمكن الحد من هذه الأخطاء؟
الحل الأكثر فاعلية، وفقًا للمختصين، يتمثل في تقليل كمية البيانات الحساسة المستخدمة في تدريب النماذج الذكية، الشركات المطوّرة للذكاء الاصطناعي تُواجه تحديًا في تحقيق التوازن بين تطوير أنظمة متقدمة وبين الامتثال للقوانين التنظيمية الصارمة، خصوصًا في أوروبا.
في عام 2023، واجهت OpenAI قضية قانونية في الولايات المتحدة عندما رفع رجل من ولاية جورجيا دعوى تشهير ضدها، بعد أن ادّعى ChatGPT أنه متورط في عملية اختلاس أموال من منظمة تدافع عن حقوق حيازة السلاح، مثل هذه الأخطاء تُعيد تسليط الضوء على الحاجة إلى ضوابط أكثر صرامة لضمان عدم تكرار الحوادث التي قد تضر بالأفراد بشكل مباشر.
هذه الحوادث المتكررة تُثير تساؤلات حول مدى جاهزية الذكاء الاصطناعي للاستخدام العام، وما إذا كانت الأنظمة الحالية قادرة على التعامل مع المعلومات الحساسة دون أن تتحول إلى مصدر للأخطاء الفادحة.
مع تصاعد القضايا القانونية، قد تجد الشركات المطورة نفسها مضطرة إلى تعديل استراتيجياتها، سواء عبر تحسين دقة البيانات أو إعادة النظر في طريقة تدريب النماذج، تجنبًا للمساءلة القانونية التي قد تُكبّدها خسائر مالية هائلة.
الأربعاء، 02 أبريل 2025 10:59 م
الأربعاء، 02 أبريل 2025 10:48 م
الأربعاء، 02 أبريل 2025 10:23 م
الأربعاء، 02 أبريل 2025 09:53 م
الأحد، 23 مارس 2025 09:32 ص
الإثنين، 10 مارس 2025 01:06 م
الأربعاء، 05 مارس 2025 02:42 م
السبت، 22 فبراير 2025 11:08 ص
ابحث عن مواصفات هاتفك
ماركات الموبايلات
أضغط هنا لمشاهدة كل الماركاتأحدث الموبايلات
Apple iPhone 13 Pro Max
Xiaomi Redmi Note 11
Samsung Galaxy A52s
OPPO Reno6 Pro 5G
realme GT2 Pro
vivo Y19
Honor 50 Pro
Huawei Nova 9
Nokia 8.3 5G
Back Top