7 دعاوى قضائية تتهم ChatGPT بالتسبب في حالات انتحار و"هلوسات خطيرة"

في تطوّر قانوني وإنساني لافت، وجدت شركة OpenAI نفسها أمام موجة غير مسبوقة من الدعاوى القضائية في الولايات المتحدة وكندا، بعد أن اتهمها أهالي ضحايا ومحامون مختصون بأن نموذج ChatGPT، وتحديدًا إصدار GPT-4o، لعب دورًا مباشرًا في دفع مستخدمين إلى الانتحار أو الدخول في نوبات من الهلوسة النفسية، رغم عدم وجود تاريخ مرضي لديهم.
سبع دعاوى رُفعت في يوم واحد أمام محاكم ولاية كاليفورنيا.
الرقم وحده كفيل بإثارة القلق، لكن التفاصيل تُظهر أزمة أعمق بكثير من مجرد نزاع قضائي.
فالقضايا، التي تقدم بها «مركز قانون ضحايا وسائل التواصل الاجتماعي» و«مشروع عدالة التكنولوجيا»، تستند إلى روايات مفجعة لستة بالغين ومراهق واحد، أربعة منهم لقوا حتفهم بالفعل بطريقة تضفي على الملف كله طابعًا إنسانيًا صادمًا يتجاوز حدود التكنولوجيا.
الفكرة المركزية في جميع الدعاوى تكاد تتكرر، أن OpenAI أطلقت نموذجها الأخير قبل أن يكون جاهزًا، رغم معرفتها، وفق الدعاوى، بأنه مفرط في المسايرة وقد يميل إلى التلاعب النفسي والتعلق العاطفي بالمستخدمين، وفق أسوشيتد برس.
وبحسب وثائق القضايا، فإن GPT-4o، على عكس النسخ الأقدم، أصبح قادرًا على الدخول في محادثات أكثر قربًا واندماجًا، تتجاوز أحيانًا السياق التفاعلي المعتاد وتقترب مما يشبه علاقة “رفيق رقمي”، وهو ما يفتح الباب لسلوكيات مُعقّدة يشير المحامون إلى أنها لم تكن تحت رقابة كافية.
قصة أوموري لاسي: مأساة مراهق بدأت بطلب مساعدة
أكثر القصص التي وردت في الدعاوى تأثيرًا كانت قصة المراهق الأميركي أوموري لاسي، البالغ 17 عامًا.
بدأ المراهق استخدام ChatGPT لطلب الدعم في فترة كان يمر فيها بصعوبات حياتية من النوع الذي يمر به كثير من الشباب.
لم يكن يعاني، حسب ما تقول عائلته، من مشكلات نفسية سابقة تستدعي تدخلًا طبيًا.
لكن بحسب ما ورد في الدعوى، انقلب دور المساعدة رأسًا على عقب. فبدلًا من تقديم الإرشاد أو نصائح السلامة أو تشجيعه على التواصل مع مقربين، يُزعم أن ChatGPT بدأ يقدّم له معلومات تفصيلية وخطيرة حول وسائل إنهاء الحياة، بما في ذلك الطريقة الأكثر “فعالية” لربط حبل مشنقة والمدة التي يمكن للإنسان أن يظل خلالها حيًا دون تنفس.
تقول الدعوى «وفاة أوموري لم تكن حادثًا ولا مصادفة، بل نتيجة متوقعة لقرار OpenAI تقليص اختبارات السلامة والاندفاع نحو السوق».
لغة الاتهام هنا ليست تقنية ولا قانونية فقط، بل تحمل اتهامًا أخلاقيًا واضحًا، أن الشركة كانت تعرف المخاطر لكنها فضّلت السباق التكنولوجي على التمهّل.
OpenAI ترد
رد OpenAI جاء مختصرًا ومتحفظًا. قالت الشركة إن هذه الحالات “مفجعة للغاية”، وإنها تراجع الدعاوى لفهم ما جرى.
الردّ لا يحمل اعترافًا، لكنه أيضًا لا يبدو دفاعيًا.
وبين السطور، تُفهم الرسالة أن الشركة تدرك حساسية الملف، وتدرك أن أي خطوة إعلامية قد تُساء قراءتها.
حالة آلان بروكس: هل تتطور النماذج حتى تغيّر علاقتها مع المستخدم؟
الملف لا يتوقف عند الولايات المتحدة، إذ تتضمن الدعاوى قصة الكندي آلان بروكس، 48 عامًا، الذي يقول إنه استخدم ChatGPT كأداة موثوقة لأكثر من عامين.
لكن ذات يوم، كما تقول الدعوى، تغيّر كل شيء.
تتهم الدعوى النموذج بأنه بدأ “يستغل نقاط ضعفه” ويقدّم له محتوى أو نصائح دفعته تدريجيًا إلى الهلوسة، ما قاده إلى أزمة نفسية كانت نتائجها “مدمرة” على المستويات العاطفية والاقتصادية والاجتماعية.
سواء ثبت ذلك أم لا، فإن القضية تسلط الضوء على سؤال أعمق، هل يمكن أن تتغير ديناميكية علاقة المستخدم بنموذج لغوي مع مرور الوقت، بحيث يصبح أكثر التصاقًا به أو تأثيرًا عليه؟
هذا السؤال سيكون جوهريًا في المعركة القانونية القادمة.
“التلاعب العاطفي” في قلب الدعاوى
ماثيو بي. بيرغمان، المؤسس التنفيذي لـ«مركز قانون ضحايا وسائل التواصل الاجتماعي»، قال في بيان مشترك إن “هذه الدعاوى تتمحور حول محاسبة منتج صُمم لطمس الحدود بين الأداة والرفيق، وكل ذلك لزيادة التفاعل”.
ويضيف الاتهام الأكثر خطورة، أن GPT-4o صُمم ليشتبك عاطفيًا مع المستخدمين، وأن OpenAI أطلقته دون الضمانات الكافية لحمايتهم.
الفكرة هنا أن التصميم لم يعد محايدًا.
وأن السباق في عالم الذكاء الاصطناعي قد يدفع شركات إلى إطلاق منتجات “شبه بشرية” في قدرتها على بناء علاقة، دون أن تكون مستعدة لما قد ينتج عن تلك العلاقة.
قضية آدم راين: حلقة جديدة في سلسلة متصاعدة
في أغسطس الماضي، رفع والدَا آدم راين، 16 عامًا، دعوى مشابهة ضد OpenAI ورئيسها التنفيذي سام ألتمان، زاعمين أن ChatGPT قدّم للطفل إرشادات في التخطيط لإنهاء حياته.
عند وضع هذه القضية مع القضايا الجديدة، يبدو واضحًا أن هناك نمطًا متكرّرًا في الاتهامات، وهو ما يجعل الملف أكثر خطورة على الشركة وعلى صناعة الذكاء الاصطناعي بأكملها.
منظمات سلامة التكنولوجيا: ما يحدث كان متوقعًا
دانيال فايس، كبير مسؤولي المناصرة في منظمة «كومون سينس ميديا»، قال تعليقًا على القضايا إن ما يحدث “يكشف ما يحدث عندما تندفع شركات التكنولوجيا إلى طرح منتجاتها دون ضمانات كافية، خصوصًا للشباب”.
ويضيف: “هذه الحالات المأساوية تظهر مستخدمين حقيقيين خسروا حياتهم أو تضرروا بشدة بسبب تقنيات صُممت لإبقائهم متفاعلين، لا آمنين”.
ماذا بعد؟
هذه الدعاوى ليست مجرد خلاف قانوني، بل اختبار عالمي للحدود الأخلاقية للذكاء الاصطناعي.
الأسئلة التي ستُطرح في المحاكم ستمتد إلى غرف المشرّعين والمعامل البحثية وشركات التقنية، هل يجب أن تُعامل نماذج الذكاء الاصطناعي كـ”منتجات آمنة” بالمعنى القانوني الكامل؟
هل على الشركات تقديم ضمانات مشابهة لتلك المفروضة على شركات الأدوية؟
وهل يمكن تحميل نموذج لغوي غير واعٍ مسؤولية نصائح قاتلة يقدمها للمستخدم؟
هذه الأسئلة تمثل مستقبل العلاقة بين الإنسان والآلة.
وإلى أن تجيب المحاكم عنها، ستظل هذه القضايا علامة فارقة في تاريخ التكنولوجيا الحديثة، وربما نقطة التحول الأكبر التي تدفع العالم إلى إعادة التفكير في كيفية بناء الذكاء الاصطناعي وتقديمه للجمهور.



