الأربعاء، 23 أبريل 2025

06:02 م

tru

موجة الذكاء الاصطناعي.. ترفيه عابر أم تهديد خفي؟

الذكاء الاصطناعي

الذكاء الاصطناعي

ياسين عبد العزيز

A A

شهدت منصات التواصل الاجتماعي خلال الأسابيع الماضية موجة جديدة من صور الذكاء الاصطناعي التي تحاكي أسلوب الرسوم المتحركة أو دمى "باربي"، والتي عُرفت باسم "AI doll" أو “Barbie box trend”، فبعد نجاح صيحة الصور بأسلوب "استديو جيبلي"، أطلقت شركات التكنولوجيا أداة جديدة تتيح للمستخدمين تحويل صورهم الشخصية إلى نسخ رقمية داخل صناديق لعب، مع تفاصيل مستوحاة من أعمالهم واهتماماتهم.

وانتشرت هذه الصور كالنار في الهشيم، وسارع المستخدمون إلى تحميل صورهم ومشاركة النتائج على منصات مثل إنستاجرام وتيك توك، ولم تكن هذه المشاركة عشوائية، بل اتبعت نمطًا واضحًا: صورة شخصية تُرفع على تطبيق ذكاء اصطناعي، تُضاف إليها بعض الأوامر النصية، ثم تُنتج صورة جذابة تُظهر صاحبها كدمية مخصصة بمظهر كرتوني وأدوات خاصة بمجاله المهني.

جاذبية الخطر

ورغم الطابع المسلي لهذا التوجه، بدأ النقاش حول مدى وعي المستخدمين بالمخاطر التي ترافق هذه الصيحات، وخصوصًا فيما يتعلق بالخصوصية الرقمية، إذ تشير الدراسات إلى أن هذه الأنشطة قد تكون بمثابة موافقة صريحة على استخدام البيانات الشخصية – بما يشمل الصور والبيانات البيومترية – من قِبل الشركات المطورة لهذه التقنيات.

ويقول خبراء الخصوصية إن ملايين المستخدمين يوافقون دون إدراك على مشاركة صورهم وبياناتهم الحساسة، فقط للانضمام إلى موجة اجتماعية واسعة، وهو ما وصفته الباحثة لويزا جاروفسكي بأنه “خدعة خصوصية ذكية”، حيث أن شركات مثل OpenAI وxAI تستفيد من هذه الصيحات لتغذية نماذجها الذكية ببيانات جديدة يصعب الحصول عليها بطرق أخرى.

الخطوة الأخطر

ويبرز القلق الأكبر عند النظر في المعلومات الإضافية التي يُطلب من المستخدمين تقديمها، والتي تتضمن تفاصيل عن الوظيفة والهوايات وحتى العادات اليومية، من أجل الحصول على نتيجة أكثر تخصيصًا، وبهذا، فإن الشركات لا تحصل فقط على صورة الوجه، بل تكتسب فهمًا دقيقًا لشخصيات المستخدمين وسلوكهم واهتماماتهم.

ويحذر إيمون ماغواير، خبير أمن البيانات في شركة "Proton"، من أن هذا النوع من البيانات يمكن استخدامه في بناء ملفات شخصية دقيقة للغاية قد تؤثر على جوانب حساسة في حياة الفرد، مثل شروط التأمين والإقراض، بل وحتى في توجيه الهجمات السيبرانية وتحليل السلوك العام.

أمان هش

وبينما يرى البعض أن مشاركة صورة في أحد التطبيقات لا تختلف عن مشاركتها على الشبكات الاجتماعية، إلا أن الفرق الجوهري يكمن في الغرض والنتائج، فعند مشاركة صورة على إنستاجرام، لا تُستخدم غالبًا في تدريب نماذج ذكاء اصطناعي متقدمة أو توليد محتوى جديد. 

أما في حالة أدوات الذكاء الاصطناعي التوليدي، فإن الصور قد تُستخدم بطرق قانونية بموجب بنود الخدمة التي نادرًا ما يقرأها المستخدمون.

وقد شهد العالم حوادث تسرب بيانات خطيرة من شركات مثل OpenAI وDeepSeek، حيث تم تسريب بيانات حساسة للمستخدمين، بما فيها أسماء ومعلومات بطاقات ائتمان، مما يعكس ضعفًا في بنية الأمان لدى هذه الجهات، ويزيد من احتمالية تعرض هذه البيانات للاختراق وسوء الاستخدام.

البُعد البيئي

من ناحية أخرى، لا تقتصر تبعات هذه الصيحات على الجانب الأمني فقط، بل تمتد لتشمل أثرًا بيئيًا متصاعدًا، فقد أشارت أبحاث أكاديمية إلى أن تشغيل نماذج ضخمة مثل ChatGPT يتطلب مراكز بيانات تستهلك طاقة أكثر مما تستهلكه عشرات الدول مجتمعة في عام واحد.

وتقول البروفيسورة جينا نيف من جامعة كوين ماري بلندن إن استمرار هذا الاستخدام غير الضروري للطاقة من أجل ترفيه عابر يفرض تساؤلات بيئية ملحة حول استدامة الذكاء الاصطناعي في العالم الرقمي.

الوجه الحقيقي

إن الإقبال الجماهيري الكاسح على هذه الصيحات الرقمية يكشف عن استعداد الملايين لتقديم معلوماتهم الشخصية مقابل ترفيه سريع، ما يضع الشركات في موقع قوة لجمع بيانات لا تُقدر بثمن. 

ومن المؤكد أن شركات الذكاء الاصطناعي تدرك جيدًا كيف تستغل الحافز النفسي لدى المستخدمين الذي يدفعهم للحاق بكل جديد.

ما يحدث الآن هو أكثر من مجرد موجة ترفيهية عابرة؛ إنه مؤشر على بداية مرحلة جديدة في علاقة البشر مع التكنولوجيا، حيث تختلط المتعة بالمخاطر، ويتحول المستخدم من مستهلك إلى مصدر بيانات ثمين. وتُظهر التجربة أن المستخدمين غالبًا ما يفضلون الانضمام إلى "الترند" على التفكير في العواقب بعيدة المدى.

search

أكثر الكلمات انتشاراً