ChatGPT يتهم رجلاً بجريمة قتل.. جدل قانوني حول دقة الذكاء الاصطناعي

مراجعة : ياسين عبد العزيز

الأحد، 23 مارس 2025 01:39 م

ChatGPT

ChatGPT

أثار نموذج الذكاء الاصطناعي ChatGPT جدلًا واسعًا بعد أن وجّه اتهامًا صادمًا لرجل نرويجي بقتل اثنين من أبنائه ومحاولة قتل الثالث، مستشهدًا ببيانات شخصية دقيقة عنه. 

الحادثة التي كشفت عنها منظمة الخصوصية الأوروبية None Of Your Business (noyb) فجّرت تساؤلات حول مدى التزام أنظمة الذكاء الاصطناعي بالقوانين المنظمة للبيانات الشخصية، لا سيما في ظل وجود تشريعات صارمة مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا.

انتهاك لقوانين حماية البيانات

المنظمة النمساوية noyb قدّمت شكوى رسمية إلى هيئة حماية البيانات النرويجية، تتهم فيها شركة OpenAI، المطورة لـ ChatGPT، بانتهاك المادة الخامسة من اللائحة العامة لحماية البيانات. 

الشكوى استندت إلى واقعة تتعلق بالمواطن النرويجي أرفي هالمار هولمين، حيث زعم ChatGPT أنه ارتكب جريمة قتل بحق اثنين من أطفاله وحاول قتل الثالث، بينما دعّم ادعاءه بمعلومات شخصية دقيقة عن الرجل، مثل مكان ولادته وعدد أبنائه وجنسهم.

وفقًا للخبراء القانونيين، مثل هذه الأخطاء تُعد خرقًا خطيرًا للقوانين الأوروبية التي تُلزم الشركات بضمان دقة المعلومات الشخصية وعدم التلاعب بها، البيانات التي ذكرها ChatGPT لم تكن ملفّقة بالكامل، بل احتوت على مزيج من الحقائق والتلفيقات، وهو ما يجعل الأمر أكثر خطورة.

الذكاء الاصطناعي ومشكلة الأخطاء التلقائية

ليست هذه المرة الأولى التي يُوجّه فيها الذكاء الاصطناعي اتهامات خاطئة أو يقدم معلومات مضللة، الأنظمة التوليدية، مثل ChatGPT، لا تستند إلى قاعدة بيانات تقليدية، بل تعتمد على توقع الكلمات بناءً على أنماط لغوية مُعقدة، ما يجعل إنتاج المعلومات غير الدقيقة أمرًا شائعًا.

الناشط في مجال الخصوصية ماكس شريمس سبق وأن تقدّم بشكوى ضد OpenAI العام الماضي، زاعمًا أن الشركة تضع عراقيل أمام تصحيح البيانات الخاطئة التي يولّدها نموذجها. 

تصحيح المعلومات في مثل هذه الأنظمة ليس بسيطًا، لأنها لا تخزّن البيانات بالطريقة التقليدية، بل تعيد تركيبها في كل مرة بناءً على السياق، هذا يعني أن الخطأ نفسه قد لا يتكرر بنفس الصياغة، لكنه قد يظهر مجددًا بصيغ مختلفة، ما يصعّب من إمكانية معالجته جذريًا.

هل يمكن الحد من هذه الأخطاء؟

الحل الأكثر فاعلية، وفقًا للمختصين، يتمثل في تقليل كمية البيانات الحساسة المستخدمة في تدريب النماذج الذكية، الشركات المطوّرة للذكاء الاصطناعي تُواجه تحديًا في تحقيق التوازن بين تطوير أنظمة متقدمة وبين الامتثال للقوانين التنظيمية الصارمة، خصوصًا في أوروبا.

في عام 2023، واجهت OpenAI قضية قانونية في الولايات المتحدة عندما رفع رجل من ولاية جورجيا دعوى تشهير ضدها، بعد أن ادّعى ChatGPT أنه متورط في عملية اختلاس أموال من منظمة تدافع عن حقوق حيازة السلاح، مثل هذه الأخطاء تُعيد تسليط الضوء على الحاجة إلى ضوابط أكثر صرامة لضمان عدم تكرار الحوادث التي قد تضر بالأفراد بشكل مباشر.

هذه الحوادث المتكررة تُثير تساؤلات حول مدى جاهزية الذكاء الاصطناعي للاستخدام العام، وما إذا كانت الأنظمة الحالية قادرة على التعامل مع المعلومات الحساسة دون أن تتحول إلى مصدر للأخطاء الفادحة. 

مع تصاعد القضايا القانونية، قد تجد الشركات المطورة نفسها مضطرة إلى تعديل استراتيجياتها، سواء عبر تحسين دقة البيانات أو إعادة النظر في طريقة تدريب النماذج، تجنبًا للمساءلة القانونية التي قد تُكبّدها خسائر مالية هائلة.

افضل كاميرا موبايل في 2023

الأربعاء، 19 يوليو 2023 09:03 م

موعد طرح هاتف Pixel 9A في الأسواق

الثلاثاء، 01 أبريل 2025 05:55 م

ابحث عن مواصفات هاتفك

Back Top