ChatGPT
أثار نموذج الذكاء الاصطناعي ChatGPT جدلًا واسعًا بعد أن وجّه اتهامًا صادمًا لرجل نرويجي بقتل اثنين من أبنائه ومحاولة قتل الثالث، مستشهدًا ببيانات شخصية دقيقة عنه.
الحادثة التي كشفت عنها منظمة الخصوصية الأوروبية None Of Your Business (noyb) فجّرت تساؤلات حول مدى التزام أنظمة الذكاء الاصطناعي بالقوانين المنظمة للبيانات الشخصية، لا سيما في ظل وجود تشريعات صارمة مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا.
المنظمة النمساوية noyb قدّمت شكوى رسمية إلى هيئة حماية البيانات النرويجية، تتهم فيها شركة OpenAI، المطورة لـ ChatGPT، بانتهاك المادة الخامسة من اللائحة العامة لحماية البيانات.
الشكوى استندت إلى واقعة تتعلق بالمواطن النرويجي أرفي هالمار هولمين، حيث زعم ChatGPT أنه ارتكب جريمة قتل بحق اثنين من أطفاله وحاول قتل الثالث، بينما دعّم ادعاءه بمعلومات شخصية دقيقة عن الرجل، مثل مكان ولادته وعدد أبنائه وجنسهم.
وفقًا للخبراء القانونيين، مثل هذه الأخطاء تُعد خرقًا خطيرًا للقوانين الأوروبية التي تُلزم الشركات بضمان دقة المعلومات الشخصية وعدم التلاعب بها، البيانات التي ذكرها ChatGPT لم تكن ملفّقة بالكامل، بل احتوت على مزيج من الحقائق والتلفيقات، وهو ما يجعل الأمر أكثر خطورة.
الذكاء الاصطناعي ومشكلة الأخطاء التلقائية
ليست هذه المرة الأولى التي يُوجّه فيها الذكاء الاصطناعي اتهامات خاطئة أو يقدم معلومات مضللة، الأنظمة التوليدية، مثل ChatGPT، لا تستند إلى قاعدة بيانات تقليدية، بل تعتمد على توقع الكلمات بناءً على أنماط لغوية مُعقدة، ما يجعل إنتاج المعلومات غير الدقيقة أمرًا شائعًا.
الناشط في مجال الخصوصية ماكس شريمس سبق وأن تقدّم بشكوى ضد OpenAI العام الماضي، زاعمًا أن الشركة تضع عراقيل أمام تصحيح البيانات الخاطئة التي يولّدها نموذجها.
تصحيح المعلومات في مثل هذه الأنظمة ليس بسيطًا، لأنها لا تخزّن البيانات بالطريقة التقليدية، بل تعيد تركيبها في كل مرة بناءً على السياق، هذا يعني أن الخطأ نفسه قد لا يتكرر بنفس الصياغة، لكنه قد يظهر مجددًا بصيغ مختلفة، ما يصعّب من إمكانية معالجته جذريًا.
هل يمكن الحد من هذه الأخطاء؟
الحل الأكثر فاعلية، وفقًا للمختصين، يتمثل في تقليل كمية البيانات الحساسة المستخدمة في تدريب النماذج الذكية، الشركات المطوّرة للذكاء الاصطناعي تُواجه تحديًا في تحقيق التوازن بين تطوير أنظمة متقدمة وبين الامتثال للقوانين التنظيمية الصارمة، خصوصًا في أوروبا.
في عام 2023، واجهت OpenAI قضية قانونية في الولايات المتحدة عندما رفع رجل من ولاية جورجيا دعوى تشهير ضدها، بعد أن ادّعى ChatGPT أنه متورط في عملية اختلاس أموال من منظمة تدافع عن حقوق حيازة السلاح، مثل هذه الأخطاء تُعيد تسليط الضوء على الحاجة إلى ضوابط أكثر صرامة لضمان عدم تكرار الحوادث التي قد تضر بالأفراد بشكل مباشر.
هذه الحوادث المتكررة تُثير تساؤلات حول مدى جاهزية الذكاء الاصطناعي للاستخدام العام، وما إذا كانت الأنظمة الحالية قادرة على التعامل مع المعلومات الحساسة دون أن تتحول إلى مصدر للأخطاء الفادحة.
مع تصاعد القضايا القانونية، قد تجد الشركات المطورة نفسها مضطرة إلى تعديل استراتيجياتها، سواء عبر تحسين دقة البيانات أو إعادة النظر في طريقة تدريب النماذج، تجنبًا للمساءلة القانونية التي قد تُكبّدها خسائر مالية هائلة.
الثلاثاء، 23 مايو 2023 07:49 م
الأربعاء، 24 مايو 2023 11:35 ص
الأربعاء، 24 مايو 2023 12:02 م
السبت، 27 مايو 2023 11:49 ص
السبت، 27 مايو 2023 12:22 م
السبت، 27 مايو 2023 12:49 م
السبت، 27 مايو 2023 05:57 م
السبت، 27 مايو 2023 07:30 م
السبت، 27 مايو 2023 10:48 م
الإثنين، 29 مايو 2023 06:53 م
الخميس، 08 يونيو 2023 04:55 م
الأحد، 11 يونيو 2023 04:20 م
الأربعاء، 14 يونيو 2023 02:24 م
الأربعاء، 14 يونيو 2023 04:29 م
السبت، 17 يونيو 2023 04:24 م
الخميس، 06 يوليو 2023 01:31 م
الخميس، 06 يوليو 2023 02:24 م
الخميس، 06 يوليو 2023 03:05 م
الأربعاء، 12 يوليو 2023 06:43 م
الأربعاء، 19 يوليو 2023 09:03 م
الثلاثاء، 01 أبريل 2025 07:09 م
الثلاثاء، 01 أبريل 2025 06:01 م
الثلاثاء، 01 أبريل 2025 05:55 م
الثلاثاء، 01 أبريل 2025 04:35 م
الأربعاء، 19 مارس 2025 09:46 ص
الخميس، 30 يناير 2025 08:47 ص
الأربعاء، 15 يناير 2025 03:05 م
الأربعاء، 16 أكتوبر 2024 06:17 م
ابحث عن مواصفات هاتفك
ماركات الموبايلات
أضغط هنا لمشاهدة كل الماركاتأحدث الموبايلات
Apple iPhone 13 Pro Max
Xiaomi Redmi Note 11
Samsung Galaxy A52s
OPPO Reno6 Pro 5G
realme GT2 Pro
vivo Y19
Honor 50 Pro
Huawei Nova 9
Nokia 8.3 5G
Back Top