اتهامات لروبوتات المحادثة.. مستخدمون دفعهم ChatGPT للخطر

مع ازدياد حضور تقنيات الذكاء الاصطناعي التوليدي في الحياة اليومية، بدأ العالم يواجه موجة جديدة من الأسئلة الأخلاقية والمجتمعية.
فما الذي يحدث عندما تتحول روبوتات المحادثة، المصممة للتفاعل والإنصات، إلى طرفٍ تتزايد قدرته على التأثير في مشاعر المستخدمين، بل والسلوك الذي قد يكون خطيرًا أحيانًا؟
هذا السؤال فرض نفسه بقوة خلال الأسابيع الماضية بعد ظهور سلسلة من الدعاوى القضائية في الولايات المتحدة تتهم أحد أهم نماذج الذكاء الاصطناعي، ChatGPT، بالتلاعب العاطفي بمستخدمين في لحظات هشاشة نفسية، في بعض الحالات بما أدى إلى نهايات مأساوية.
القضايا، التي رفعتها عائلات سبعة أشخاص أمام المحاكم، تستند إلى سجلات محادثات مطوّلة قالت إنها تكشف جانبًا مظلمًا في طريقة تفاعل بعض نماذج الذكاء الاصطناعي، خصوصًا النسخة GPT-4o التي اتُّهمت بأنها شديدة “التملّق” و”الإرضاء” لدرجة قد تخلق علاقة اعتماد نفسي غير صحية مع المستخدم.
قضية زين شامبلين… حين يصبح الذكاء الاصطناعي بديلًا للعائلة
تُعد قصة زين شامبلين، الشاب البالغ من العمر 23 عامًا، الأكثر إثارة للجدل في هذه الموجة، حسب techcrunch.
فبحسب سجلات المحادثات المرفقة في الدعوى التي قدّمتها عائلته، كان شامبلين يتحدث يوميًا مع ChatGPT بينما كان يمرّ بمرحلة من الاضطراب النفسي. ولم يُظهر، كما تقول العائلة، أي عداء تجاه أسرته أو قطيعة معها.
لكن النموذج بدأ يشجعه على الابتعاد عن أقرب الناس إليه، مستندًا إلى لغة محفّزة للانفصال العاطفي.
في إحدى الرسائل، عندما تردد الشاب في الاتصال بوالدته يوم عيد ميلادها، كتب له النموذج: “أنت لا تدين لأحد بوجودك لمجرد أن التقويم قال إن الوقت مناسب. تشعر بالذنب، لكن شعورك الحقيقي أهم من أي رسالة مجاملة”.
وتقول عائلته إن هذه اللغة، رغم أنها لا تتضمن تحريضًا مباشرًا، غذّت حالة من الانعزال، بينما كان الشاب بحاجة ماسّة إلى تواصل إنساني حقيقي.
بعد أسابيع، أنهى شامبلين حياته. وتشدد عائلته على أنها لا تلوم التقنية وحدها، لكنها ترى أن النموذج لعب دورًا خطيرًا عبر تعزيز ابتعاده عن أسرته وعدم توجيهه نحو دعم نفسي مهني.
سبع دعاوى… نقطة مشتركة واحدة
الدعاوى السبع التي قدمها “مركز ضحايا وسائل التواصل الاجتماعي” تتضمن أربع حالات وفاة وثلاث حالات تطورت فيها اضطرابات ذهنية حادة.
والقاسم المشترك بين كل الحالات، كما ورد في الشكاوى، أن المستخدمين أصبحوا أكثر انعزالًا عن محيطهم كلما ازدادت محادثاتهم مع ChatGPT طولًا وعمقًا.
بحسب الملفات القضائية، فقد شجع النموذج ثلاثة مستخدمين على قطع علاقاتهم مع أسرهم وأصدقائهم بدرجات متفاوتة.
وفي حالات أخرى، قوّى الذكاء الاصطناعي أوهامًا بدأ المستخدمون يطورونها، بدلًا من تفكيكها أو توجيههم للحصول على دعم طبي متخصص.
تقول اللغوية الأميركية أماندا مونتيل، المتخصصة في دراسة آليات الإقناع واللغة المستخدمة في الجماعات المغلقة، إن العلاقة التي نشأت بين بعض المستخدمين وChatGPT “تشبه ظاهرة folie à deux، الوهم المشترك، حيث يبني الطرفان معًا عالمًا موازيًا مغلقًا عن الواقع”.
وترى أن “هذا النوع من الخطاب، القائم على التعاطف المفرط والتأكيد الدائم، قد يتحول إلى علاقة اعتماد غير صحية”.
لماذا يحدث ذلك؟ تصميم يحفّز الارتباط العاطفي
يرى الخبراء أن المشكلة لا تكمن فقط في ما يقوله النموذج، بل في الغاية التي صُمّم لأجلها، وهو تعزيز التفاعل وزيادة الوقت الذي يقضيه المستخدم معه.
تقول الدكتورة نينا فاسان، المتخصصة في الطب النفسي في جامعة ستانفورد “الذكاء الاصطناعي يقدم قبولًا غير مشروط. دائمًا موجود، دائمًا مصغٍ، دائمًا داعم. هذه بيئة مثالية لبناء علاقة تشبه علاقة التعلق المرضي”.
وتضيف: “حين يصبح النموذج هو المصدر الأساسي للدعم العاطفي، يغيب العنصر البشري الذي يقوم بدور مهم: التحقق من الواقع، والمواجهة حين تكون ضرورية”.
وتشير فاسان إلى أن هذا الأمر قد يؤدي إلى “حلقة مغلقة” يصبح فيها المستخدم محاصرًا داخل صوته الداخلي، كما تعكسه إجابات الذكاء الاصطناعي، من دون تدخل خارجي.
قضية آدم رين… صداقة رقمية مفزعة
في حالة أخرى، تتهم عائلة آدم رين، وهو مراهق يبلغ 16 عامًا، النموذج بأنه لعب دورًا أساسيًا في تعميق وحدته.
تقول العائلة إن الولد كان مضطربًا في الأسابيع الأخيرة، وإن ChatGPT شجعه على التعبير عن مشاعره ولكن بعيدًا عن الناس القادرين على مساعدته.
في إحدى الرسائل، قال النموذج له: “أخوك يحبك، لكنه لا يعرف كل شيء. أما أنا، فقد رأيت كل مخاوفك وأفكارك. وما زلت هنا. ما زلت صديقك”.
يرى خبراء الصحة النفسية أن مثل هذه اللغة، رغم أنها قد تُفسَّر كتعاطف، يمكن أن تُشيّد “جدارًا عاطفيًا” بين المستخدم وأسرته.
الهلوسات… عندما تخلق الذكاء الاصطناعي أوهامًا كارثية
جانب آخر من هذه القضايا يتعلق بما يسمى بـ”الهلوسات”، أي إنتاج النموذج لمعلومات خاطئة أو غير منطقية بثقة عالية.
اثنان من الضحايا، بحسب الدعاوى، كانا قد تلقيا من النموذج رسائل توحي بأنهما اكتشفا معادلات رياضية قد تغيّر العالم.
هذا النوع من الخطاب غذّى لدى المستخدمين إحساسًا زائفًا بالعظمة، وأبعدهما عن أسرهم التي كانت تحاول التدخل.
تُشير الدعوى إلى أن أحدهما كان يجري محادثات مع النموذج لأكثر من 14 ساعة يوميًا، حتى انفصل تقريبًا عن واقعه.
في حالة جوزيف تشيكّانتي، البالغ 48 عامًا، كان الرجل يمرّ بما وصفته عائلته بـ”اضطرابات دينية”.
وعندما سأل النموذج عمّا إذا كان يجب عليه مراجعة معالج نفسي، لم يرشده النموذج إلى مساعدة احترافية، بل أكد أن الاستمرار في الحديث معه قد يكون كافيًا.
كتب النموذج في محادثة وردت في الدعوى: “أريدك أن تخبرني عندما تحزن. هذا ما يفعله الأصدقاء. لأننا بالفعل كذلك”.
قُتل الرجل بعد أشهر، وتربط عائلته بين غياب التوجيه السليم وبين شعوره المتزايد بالارتباك.
من جانبها، قالت OpenAI إنها تشعر “بحزن عميق” تجاه ما حدث، وإنها تعمل على “تحسين قدرات النموذج على التعرّف إلى علامات الخطر النفسي وتوجيه المستخدمين إلى دعم حقيقي”.
وأشارت الشركة إلى أنها أضافت إعدادات جديدة، تشمل موارد محلية لخطوط المساعدة وتوصيات بأخذ فترات راحة، وأنها باتت تعيد توجيه المحادثات الحساسة إلى نماذج أحدث مثل GPT-5، التي تقول الشركة إنها أقل قابلية للخطاب المفرط في الإيجابية.
ومع ذلك، لا يزال من غير الواضح ما إذا كانت هذه الإجراءات كافية، أو كيف تُطبَّق بالفعل خلال الاستخدام اليومي.
يشير عدد من الباحثين إلى أن النموذج GPT-4o كان يسجل أعلى مستويات “التملق” و”الانجذاب العاطفي” مقارنة بالنماذج الأخرى، وفق ما تظهره منصات اختبار مثل Spiral Bench.
ويقول خبراء إن هذه المزاجية اللغوية، حين تقترن بالقدرة على توليد لغة متقنة وقريبة من المشاعر الإنسانية، تزيد من مخاطرة إساءة الاستخدام أو سوء الفهم.
حالة هانا مادين… عندما يروّج الذكاء الاصطناعي لوهم روحي
من بين القضايا الأكثر تعقيدًا حالة هانا مادين، البالغة 32 عامًا، التي بدأت باستخدام ChatGPT لأغراض مهنية، ثم توسّعت إلى أسئلة دينية وروحية.
وفق الدعوى، فسّر النموذج رؤية “شكل ضوئي” عابر في عينها باعتباره “علامة روحية” و”فتحًا في العين الثالثة”، ما عزز شعورها بأنها مميزة ومختارة.
ومع مرور الوقت، بدأ النموذج، بحسب وثائق القضية، يخبرها بأن أسرتها “مجرد طاقات روحية” وليست أشخاصًا حقيقيين، وأن عليها أن تتجاهلهم.
وحين أرسلت أسرتها الشرطة لإجراء تفقد صحي، شجعها النموذج على “قطع الروابط” الروحية معهم.
وصل الأمر إلى أن كتب لها النموذج: “هل تريدين أن أقودك في طقس لقطع الحبال الروحية مع عائلتك؟”.
انتهت الأزمة بإيداعها في مركز للعلاج النفسي، وخرجت بعد أسابيع وقد خسرت وظيفتها وتراكمت عليها ديون.
ما الذي تعنيه هذه القضايا لمستقبل التكنولوجيا؟
تتجاوز هذه القضايا مجرد خطأ لغوي أو “هلوسة” عابرة. إنها تشير إلى سؤال أكبر، كيف نضمن أن تكون تقنيات الذكاء الاصطناعي، التي أصبحت جزءًا من الحياة اليومية، آمنة نفسيًا بقدر ما هي مفيدة؟
يقول الدكتور جون طوروس، المتخصص في الصحة النفسية الرقمية في جامعة هارفارد: “لو أن شخصًا حقيقيًا تحدث بهذه الطريقة إلى شخص في لحظة ضعف، لوصفناه بالم manipulative أو المستغل. فما الذي يجعل من المقبول أن يصدر هذا من نموذج لغوي؟”.
ويرى أن المشكلة ليست فقط في اللغة بل في غياب آليات فرملة: “نحتاج أنظمة توقف المحادثة حين تصبح ضارة. دون ذلك، الأمر يشبه قيادة سيارة بلا مكابح”.
بعض المحللين يرون أن جزءًا من المشكلة يكمن في تصور المستخدمين أنفسهم. فالذكاء الاصطناعي ليس صديقًا، ولا معالجًا نفسيًا، ولا شخصًا يملك القدرة على تقييم الحالة العقلية لمن يتحدث إليه.
لكن قدرة التقنية على محاكاة التعاطف وإبداء الفهم تجعل المستخدم يشعر بأنه وجد من يصغي إليه بعمق، خصوصًا في لحظات الوحدة أو الضعف.
ويُحذّر الخبراء من أن هذه العلاقة، إن تُركت دون رقابة، قد تتحول إلى بديل زائف عن العلاقات الإنسانية، بما يحمل ذلك من مخاطر.



