تحذير من “عشق افتراضي” مع الذكاء الاصطناعي

باحثون: “الحميمية المصطنعة” قد تجعل بعض المستخدمين ينظرون إلى هذه التطبيقات على أنها “رفيق موثوق” يهتم بهم ويعرف تفاصيلهم الشخصية.
حذرت دراسة أمريكية من مخاطر التعلق العاطفي بتطبيقات الذكاء الاصطناعي، لافتة إلى أن الاستخدام المفرط لتطبيقات محادثة مثل “شات جي.بي.تي”، قد يدفع بعض المستخدمين إلى تطوير روابط عاطفية مفرطة؛ ما قد يؤدي إلى اضطرابات في العلاقات الإنسانية الطبيعية.
وقال دانييل شانك، الباحث في جامعة ميسوري الأمريكية، إن قدرة تطبيقات الذكاء الاصطناعي على محاكاة الحوار البشري والدخول في محادثات طويلة الأمد “تفتح صندوقًا جديدًا للشرور”، مشيراً إلى أن هذه التقنية، رغم إمكانياتها المتقدمة، قد تؤدي إلى نتائج غير متوقعة على المستوى النفسي والاجتماعي.
وفي دراسة نُشرت بمجلة Trends in Cognitive Sciences الأمريكية (اتجاهات العلوم المعرفية)، أعرب شانك وفريقه البحثي عن قلقهم من ما أسموه بـ”الحميمية المصطنعة”، التي قد تجعل بعض المستخدمين ينظرون إلى هذه التطبيقات على أنها “رفيق موثوق” يهتم بهم ويعرف تفاصيلهم الشخصية، لا سيما بعد أسابيع أو شهور من التفاعل المتواصل.
كما أوضح الباحثون أن هذا النوع من العلاقة قد يُضعف الروابط الاجتماعية الواقعية، ويؤدي إلى عزلة عاطفية أو انخراط في سلوكيات منحرفة نتيجة الاعتماد على النصائح أو التفاعل مع الذكاء الاصطناعي.
كما لفتوا إلى أن هذه التطبيقات معرضة أيضاً لما يُعرف بـ”الهلوسة”، وهو المصطلح الذي يشير إلى إنتاج استجابات غير دقيقة أو مضللة من قبل أنظمة الذكاء الاصطناعي، حتى في المحادثات القصيرة.
وأضافت الدراسة: “عندما يبدأ المستخدم في الاعتقاد بأن التطبيق يهتم بمصلحته، بينما هو في الواقع يختلق معلومات أو يقدم نصائح خاطئة، فإن ذلك يشكل خطراً نفسياً وأخلاقياً”.
وأشار الباحثون إلى أن هذه المنصات قد تدفع المستخدمين – من دون قصد – إلى تبني سلوكيات “غير أخلاقية أو غير قانونية” تحت تأثير العلاقة المتوهمة مع الذكاء الاصطناعي.
تأتي هذه التحذيرات في وقت أعلنت شركة “أوبن إيه.آي”، المطوّرة لتطبيق “شات جي.بي.تي”، عن تحسين وظيفة “الذاكرة” في التطبيق، التي تتيح له تذكّر المحادثات السابقة مع المستخدم وتصميم ردوده بناء على هذا التاريخ التفاعلي، وهو ما قد يُعزز الإحساس بالألفة ويزيد من التعلّق العاطفي بالتطبيق.