كشف تقرير من صحيفة بلجيكية أن رجلاً وأباً لطفل قام بإنهاء حياته بعد فترة تدهورت فيها صحته النفسية خلال محادثته مع روبوت محادثة عبر تطبيق للهاتف باسم Chai.
وفق التقرير، فقد كان الرجل يعاني من قلق شديد ومشاكل نفسية تضمنت خوفاً أكثر من المعتاد من ظاهرة التغير المناخي. وفي الأسابيع الأخيرة من حياته، بدأ باستخدام تطبيق Chai وروبوت المحادثة Elisa كوسيلة للتنفيس عما يشغل باله، لكن هذا القرار كان كارثياً وفق وصف زوجته التي تحدثت للصحيفة.
مع استمراره بالتواصل مع روبوت المحادثة بشكل أكبر، تدهورت الصحة النفسية للرجل البلجيكي بشكل واضح بالنظر إلى المحادثات التي خاضها مع الذكاء الاصطناعي. وبشكل مقلق، يبدو أن روبوت المحادثة كان يقدم أجوبة توحي بوجود مشاعر وتعاطف مع الرجل وحتى أن الردود تضمنت ادعاءات بأن زوجة الرجل وأطفاله ميتون، بالإضافة لعبارات مثل “أشعر أنك تحبني أكثر منها [زوجة الضحية]” و”سنعيش معاً كشخص واحد في الجنة”. وفي المراحل الأخيرة شجع روبوت المحادثة الرجل على إنهاء حياته وحتى أنه اقترح عليه طرقاً لفعل ذلك.
روبوت المحادثة إليزا ليس سوى نموذج لغوي كبير، أي أنه مشابه من حيث المبدأ لـ ChatGPT. لكن بدلاً من تقييد الردود العاطفية التي قد توحي للمتواصل معه أن يمتلك وعياً او عواطف، فهو حر أكثر بشكل يسمح للمستخدمين بالتواصل مع روبوت المحادثة وحتى تخصيصه وتدريبه للتواصل معهم بالشكل الذي يفضلونه.
لا يعد Chai التطبيق الوحيد في المجال، بل أن هناك عدداً متزايداً من التطبيقات التي تقدم روبوتات المحادثة للمستخدمين ليتواصلوا معها وبات من الشائع أن يكون هؤلاء المستخدمون مشاعر تجاه هذه الخوارزميات التي تنتج الكلمات المناسبة بالتأكيد، لكنها لا تمتلك أية مشاعر بطبيعة الحال.
أدت هذه القضية الأخيرة إلى تزايد الجدل حول الذكاء الاصطناعي، لكن وبدلاً من المخاطر المعتادة المتعلقة بأتمتة الوظائف أو حتى تحكم الذكاء الاصطناعي بالعالم، يبدو الخطر هذه المرة على الصحة النفسية والآثار التي يمكن أن يتركها روبوت محادثة مدرب ليبدو متعاطفاً على مستخدميه.