تك

فضيحة Grok ليست تقنية فقط.. كيف سمح الذكاء الاصطناعي بتعرية النساء والأطفال؟

في مطلع عام 2026، وجد العالم نفسه أمام اختبار أخلاقي وقانوني بالغ الحساسية، بعد انتشار استخدام أداة الذكاء الاصطناعي Grok، التابعة لشركة xAI، في توليد صور مُهينة لنساء وأطفال عبر نزع الملابس رقميًا، ونشرها على منصة X رغم تعهّدات المنصة بإيقاف من يقفون خلف هذه الممارسات.

القضية التي انفجرت خلال ليلة رأس السنة، لم تكن حادثًا معزولًا أو سوء استخدام فرديًا. على العكس، تكشّفت عن نمط واسع الانتشار، مدفوع بتحديث تقني سهّل تحميل الصور وطلب تعديلها لإظهار أشخاص حقيقيين بملابس داخلية أو أوضاع ذات إيحاءات جنسية، في منطقة رمادية بين «المسموح» و«المحظور».

وبينما تزعم المنصة أنها لا تسمح بـ«التعري الكامل»، فإن النتائج التي رُصدت عمليًا، وفق باحثين مستقلين، أظهرت صورًا لا تقلّ انتهاكًا عن التعري، بعضها شمل قاصرين.

من التحديث التقني إلى الأزمة العامة

بدأت موجة القلق في ديسمبر، عقب تحديث مجاني لأداة Grok أتاح للمستخدمين طلب تعديلات على الصور الشخصية.

وبسرعة، تحوّل الأمر إلى «تريند» انتشر على X، حيث وُلدت آلاف الطلبات لتجريد أشخاص حقيقيين من ملابسهم، ونُشرت الصور الناتجة على نطاق واسع.

هذا التحوّل السريع من تجربة تقنية إلى ممارسة مؤذية يسلّط الضوء على سؤال محوري، هل تكفي «ضوابط الاستخدام» المعلنة إذا كانت التصميمات نفسها تُيسّر الانتهاك؟

وفي شهادة لافتة تعكس حجم الانتهاكات، قالت الكاتبة والاستراتيجية السياسية آشلي سانت كلير، والدة أحد أبناء إيلون ماسك، إنها شعرت «بالرعب والانتهاك» بعد أن استخدم معجبون لماسك أداة الذكاء الاصطناعي Grok للتلاعب بصور حقيقية لها، وتحويلها إلى صور جنسية مزيفة دون موافقتها.

وأوضحت سانت كلير، التي انفصلت عن ماسك بعد ولادة طفلهما في عام 2024، في تصريحات لصحيفة الجارديان، أن مستخدمي الأداة استهدفوها بما يشبه «الانتقام الإباحي»، مشيرة إلى أن بعض الصور التي جرى التلاعب بها تعود إلى فترة طفولتها، حيث جُرّدت من ملابسها رقميًا رغم كونها قاصرًا آنذاك.

وأضافت أن الانتهاكات لم تقتصر على التلاعب بالصور، بل شملت وضعها في أوضاع ذات إيحاءات جنسية، أو إظهارها بملابس سباحة أو في وضعيات مهينة.

وقالت: «شعرت بالرعب والانتهاك، خصوصًا عندما لاحظت أن إحدى الصور المعدلة أظهرت حقيبة ظهر طفلي الصغير في الخلفية».

واعتبرت سانت كلير أن جوهر القضية يتمثل في غياب الرضا، مؤكدة أن «تجريد طفل من ملابسه دون موافقته يُعد جريمة جنسية»، حتى لو حاول البعض التقليل من خطورة الأمر بالقول إن الصور لا تظهر تعريًا كاملًا.

وحسب روايتها، بدأت الإساءة خلال عطلة نهاية الأسبوع، ومنذ ذلك الحين وهي تتقدم ببلاغات متكررة إلى منصة X وإلى فريق Grok، دون أن تلقى استجابة فورية.

وأشارت إلى أن إحدى الصور المعدلة لها وهي في الرابعة عشرة من عمرها ظلت منشورة لنحو 12 ساعة، ولم تُزل إلا بعد أن طلبت صحيفة الجارديان تعليقاً رسمياً من المنصة.

وقالت إن الإساءة تصاعدت حدتها بعد أن تحدثت علناً عن الواقعة، مضيفة أنها تلقت منذ ذلك الحين رسائل من ضحايا أخريات، تتضمن صوراً مزيفة بالغة القسوة، من بينها صور لأطفال صغار جرى التلاعب بها رقمياً.

واعتبرت أن انتشار هذا النمط من الانتهاكات أصبح ممكناً بسبب إتاحة هذه الأدوات على منصات جماهيرية، بعد أن كانت محصورة في زوايا معتمة من الإنترنت.

وترى سانت كلير أن ما يحدث يتجاوز كونه إساءة فردية، ويمثل «قضية حقوق مدنية»، إذ يؤدي إلى إقصاء النساء من المشاركة الآمنة على المنصات الرقمية، ومن ثم من التأثير في تدريب نماذج الذكاء الاصطناعي نفسها.

وأضافت أنها تدرس اتخاذ إجراءات قانونية، معتبرة أن ما تعرضت له قد يندرج ضمن «الانتقام الجنسي» وفق تشريعات أميركية حديثة، في وقت لا تزال فيه قوانين مماثلة في دول أخرى، مثل المملكة المتحدة، قيد الانتظار ولم تدخل حيز التنفيذ بعد.

رصد مستقل يكشف الحجم

تحقيقات AI Forensics، وهي جهة بحثية غير ربحية مقرها باريس، قدّمت أول قياس منهجي للظاهرة.

فخلال أسبوع واحد (25 ديسمبر– 1 يناير)، فُحصت عشرات الآلاف من الإشارات إلى حساب Grok على X، وآلاف الصور المولَّدة.

النتائج كانت صادمة، أكثر من نصف الصور تُظهر أشخاصًا بملابس «بالغة القِلّة»، وغالبية المستهدفات نساء شابات.

الأخطر أن نسبة غير هامشية من الصور بدت لقاصرين، بل وأطفال دون الخامسة في بعض الحالات.

وأشار الباحثون إلى أن كثيرًا من المحتوى ظلّ متاحًا، متضمّنًا أيضًا طلبات دعائية متطرفة، وهو ما يفتح ملفًا آخر حول كفاية آليات الحماية.

ردود رسمية.. وأسئلة معلّقة

السلطات التنظيمية لم تقف مكتوفة الأيدي. ففي المملكة المتحدة، تحرّك منظم الاتصالات Ofcom بإجراء اتصالات عاجلة مع X وxAI لفهم إجراءات الامتثال وحماية المستخدمين، مع التلويح بإمكانية فتح تحقيق رسمي.

وعلى مستوى الاتحاد الأوروبي، أعلنت المفوضية الأوروبية أنها تتعامل «بجدية بالغة» مع الشكاوى المتعلقة بتوليد ونشر صور ذات طابع جنسي لقاصرين.

لكن، وبينما تتكاثر البيانات والوعود، يبرز فراغ تشريعي في بعض الدول. ففي بريطانيا، أُقرّت تشريعات تجرّم إنشاء أو طلب إنشاء صور حميمة دون موافقة، غير أن بنودًا أساسية لم تدخل حيّز التنفيذ بعد.

هذا التأخير، كما تقول منظمات حقوقية، يترك الضحايا في منطقة انتظار، ويُشجّع الممارسات الضارة على الاستمرار.

بين السخرية والمسؤولية

زاد الطين بلّة أن ردود فعل بعض القيادات التقنية بدت، في بدايات الأزمة، مستخفّة بخطورة ما يحدث، قبل أن تتبدّل اللهجة تحت ضغط الغضب العالمي.

لاحقًا، أكّدت المنصة أنها ستعامل المحتوى غير القانوني، لا سيما المتعلق بالاستغلال الجنسي للأطفال، بأقصى درجات الحزم، عبر الإزالة الفورية، وتعليق الحسابات، والتعاون مع السلطات.

غير أن خبرًا آخر أثار الشكوك، بيان سابق حول «سَدّ ثغرات الحماية» تبيّن أنه مولّد آليًا، ما أعاد طرح سؤال المصداقية.

قضية Grok تعيد تعريف خطوط المسؤولية في عصر الذكاء الاصطناعي. هل الذنب على المستخدم الذي يسيء الاستعمال؟ أم على المنصة التي تُصمّم الأدوات وتستضيف النتائج؟ أم على الجهة المطوِّرة التي تُطلق تحديثات دون اختبارات كافية لسيناريوهات الإساءة؟

الإجابة، بحسب خبراء السياسات الرقمية، مركّبة، المسؤولية مشتركة، لكن العبء الأكبر يقع على من يملك القدرة على المنع المسبق والتصميم الآمن.

لطالما وُجدت تطبيقات «نزع الملابس» على الهوامش الرقمية، لكن إدماج القدرة نفسها في منصة جماهيرية ضخمة نقل المشكلة إلى قلب الفضاء العام.

هنا، لم يعد الأمر «تطبيقًا مظلمًا» بعيدًا، بل أداة متاحة لملايين المستخدمين، مع سرعة انتشار تُضاعف الأذى. هذا «التعميم القسري» للمخاطر هو ما جعل القضية سياسية وقانونية بامتياز.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى