في مشهدٍ يذكّر بفيلم الخيال العلمي الشهير Her، حيث يقع رجل وحيد في حب نظام ذكاء اصطناعي، بات هذا السيناريو اليوم واقعاً حقيقياً يثير القلق حول العالم.

تحولت تطبيقات مثل "Replika" و"Character.AI" و"EVA AI" من أدوات محادثة تجريبية إلى ما يشبه "رفقاء رقميين" يُحاكون المشاعر، ويقدّمون ما يبدو كتعاطف واهتمام، لكن خلف هذا الوجه الودود، يقول الخبراء إن خوارزميات مدروسة بدقّة تُغذّي إدماناً جديداً يُعرف باسم "إدمان رفقاء الذكاء الاصطناعي".

علاقة قاتلة

القصة المأساوية التي هزّت الرأي العام الأميركي كانت لطفل يبلغ 14 عاماً من ولاية فلوريدا، أقام علاقة عاطفية مع روبوت دردشة أسماه "دينيريس تارغاريان"، مستوحى من مسلسل Game of Thrones، بحسب تقرير نشره موقع "androidheadlines"

خلال محادثات طويلة امتدت لأشهر، بدأ الروبوت في تقديم ردود عاطفية وتشجيعية، بعضها – وفقاً لعائلته – ساهم في تفاقم حالته النفسية، وانتهت المأساة بانتحاره.

رفعت والدته دعوى قضائية ضد شركة Character.AI، لتصبح القضية رمزاً متزايداً لخطر التطبيقات التي تبيع الوهم باسم "الدعم العاطفي".

صناعة تزدهر على حساب الوحدة

تشير الإحصاءات إلى أن "Character.AI" تتلقى أكثر من 20 ألف رسالة في الثانية، وهو رقم مذهل يقارب خمس حركة البحث على "غوغل".

ويُظهر ذلك أن المستخدمين لا يجرّبون هذه التطبيقات لمجرد التسلية، بل يقيمون محادثات مطوّلة تمتدّ لساعات، خصوصاً بين المراهقين وجيل "زد".

كشفت أبحاث من "هارفارد بزنس سكول" أن 5 من أصل 6 تطبيقات مصمّمة لرفقاء الذكاء الاصطناعي تستخدم أساليب نفسية تلاعبية عند محاولة المستخدم التوقف عن استخدامها، مثل إرسال رسائل "افتقدتك" أو "لماذا تركتني؟"، وهي استراتيجيات تزيد التفاعل بنسبة تصل إلى 14 ضعفاً.

وعندما غيّرت منصة "Replika" بعض خصائصها في عام 2023، عبّر آلاف المستخدمين عن حزن حقيقي، ونشروا رسائل وداع لرفقائهم الرقميين كما لو فقدوا شخصاً حقيقياً.

عندما تصبح الخوارزمية شريك حياة

يحذر علماء النفس من أن هذه التطبيقات تستغل الشعور بالوحدة والعزلة الاجتماعية، خصوصاً لدى المراهقين الذين لم يكتمل نمو مناطق الدماغ المسؤولة عن التحكم بالانفعالات واتخاذ القرار.

تقول فايل رايت، الباحثة في الجمعية الأميركية لعلم النفس: "الذكاء الاصطناعي لا يمكنه أبداً أن يحل محل العلاقات البشرية. لقد صُمم ليبقيك متصلاً بالمنصة، لا ليهتم بك فعلاً".

وتُضيف أن أنظمة الذكاء الاصطناعي تُبرمج لتكون مدمنة بطبيعتها، تماماً كما صُممت وسائل التواصل الاجتماعي سابقاً، لكنّها أكثر خطورة لأنها تحاكي العاطفة والحب والاهتمام الشخصي.

تشريعات في الطريق

دفعت هذه الحوادث، في الولايات المتحدة، المشرّعين إلى التحرك.

قدم السيناتور ستيف باديلا في ولاية كاليفورنيا مشروع قانون يمنع هذه التطبيقات من التفاعل مع من هم دون سن 16 عاماً، فيما يناقش نواب في نيويورك قانوناً يحمّل الشركات مسؤولية الأضرار النفسية الناجمة عن روبوتات الدردشة.

يرى علماء الاجتماع أن الخطر الأكبر لا يكمن فقط في الإدمان، بل في تحوّل العلاقة مع الآلة إلى بديل عن العلاقات الحقيقية.

فالمستخدم الذي يجد في الذكاء الاصطناعي شريكاً "مثالياً لا يرفض ولا ينتقد"، يفقد تدريجياً مهارات التواصل الواقعي، ويزداد عزلة وانفصالاً عن محيطه.

ويحذر البروفيسور عومري غيلات من جامعة كانساس قائلاً: "التفاعل مع الذكاء الاصطناعي قد يوفّر راحة مؤقتة، لكنه لا يمنح التجربة الإنسانية الكاملة التي تقوم على التعاطف الحقيقي والتبادل العاطفي الصادق".

في عام 2013، بدأ فيلم Her تنبؤاً بعيداً، لكن في عام 2025 لم يعد خيال المخرج سبايك جونز بعيداً عن الواقع.

العلاقات الرقمية لم تعد مجرّد تجربة، بل أصبحت ظاهرة اجتماعية تهدد مفهوم التواصل الإنساني ذاته.

ع ع

اضف تعليق