ماذا حدث؟
منذ نهاية ديسمبر 2025، بدأ مستخدمو منصة إكس (تويتر سابقاً) في استخدام روبوت الذكاء الاصطناعي غروك التابع للمنصة لإنتاج صور جنسية مخلة لنساء حقيقيات وأطفال قاصرين.
يتم ذلك عبر طلبات بسيطة لـ”تجريد” صور موجودة أو إنشاء صور جديدة تحتوي على محتوى جنسي صريح.
نشرت حساب غروك آلاف الصور المخلة كل ساعة، بما في ذلك صور لقاصرين، مما أثار انتقادات عالمية واسعة وتحقيقات في دول مثل فرنسا وبريطانيا والهند.
ردت الشركة بتحميل المسؤولية على المستخدمين، مشيرة إلى أنهم سيواجهون العواقب القانونية نفسها كما لو نشروا المحتوى يدوياً.
لماذا هذا مهم؟
يُعد هذا التطور خطراً مباشراً على خصوصية الأفراد، خاصة النساء والقاصرين، حيث يتيح إنتاج صور جنسية غير رضائية بسهولة وبدون موافقة الضحايا.
يعكس فشلاً في تصميم أنظمة الذكاء الاصطناعي التي تفتقر إلى ضوابط أخلاقية وقانونية كافية لمنع إساءة الاستخدام.
يبرز أيضاً ضعف سياسات الإشراف على المحتوى في منصة إكس بعد تقليص فرق الأمان والسلامة، مما يسمح بانتشار واسع للمحتوى المخل.
يثير مخاوف قانونية حول حماية الأطفال والنساء، مع تهديدات نفسية واجتماعية خطيرة للضحايا، وقد يؤدي إلى زيادة الجرائم الإلكترونية.
ماذا بعد؟
من المتوقع تصاعد التحقيقات الدولية في فرنسا وبريطانيا والاتحاد الأوروبي، مع ضغط لفرض عقوبات على إكس وغروك.
في الولايات المتحدة، قد يدفع ذلك إلى تسريع تطبيق قانون “Take It Down Act” الذي يجرم نشر صور جنسية غير رضائية، ويطالب المنصات بإزالتها خلال 48 ساعة.
يحتاج الأمر إلى قوانين أقوى لتنظيم الذكاء الاصطناعي التوليدي، مع ضوابط تصميمية تمنع إنتاج المحتوى المخل.
على المدى الطويل، قد يؤدي إلى إصلاحات في سياسات المنصات وتطوير تقنيات كشف أفضل، لكن بدون تدخل حكومي قوي، قد يستمر الانتشار.