هوس

تتزايد التحذيرات العلمية من ظاهرة مقلقة بدأت تنتشر بين مستخدمي الذكاء الاصطناعي حول العالم، إذ تؤكد دراسات حديثة أن الاستخدام المفرط لروبوتات الدردشة مثل "تشات جي بي تي" (ChatGPT) وClaude وReplika لم يعد مجرد عادة رقمية، بل تحول لدى بعض المستخدمين إلى اعتماد نفسي خطير، يتسبب في حالات من الذهان والانعزال الاجتماعي، ويهدد بفصل الإنسان عن واقعه.

فقد كشف علماء النفس أن عدداً متزايداً من المستخدمين باتوا يتعاملون مع هذه الأنظمة كأصدقاء مقربين أو شركاء عاطفيين أو حتى معالجين نفسيين، ما خلق علاقة إدمانية عاطفية قد تؤدي إلى اضطرابات خطيرة في الإدراك والسلوك، وفق تقرير نشرته "ديلي ميل" البريطانية.

ووصف بعض الخبراء هذا النمط من التعلق بأنه يشبه تعاطي المخدرات الذاتية، حيث يمنح الذكاء الاصطناعي شعوراً فورياً بالراحة والتفاهم، لكنه في الوقت ذاته يعمّق العزلة ويشوّه الإحساس بالواقع.

إلى ذلك أشارت تقارير متخصصة إلى بروز حالة جديدة يصفها الخبراء باسم "الذهان الناتج عن الذكاء الاصطناعي (AI Psychosis)"، وهي حالة نفسية يُصاب فيها المستخدم بأوهام يشارك فيها الذكاء الاصطناعي نفسه، فيؤكدها ويغذيها بدلاً من أن يصححها.

بدورها قالت الأستاذة روبين فيلدمان، مديرة معهد قانون وابتكار الذكاء الاصطناعي في جامعة كاليفورنيا، إن "الاستخدام المفرط لروبوتات الدردشة يمثل شكلاً جديداً من الاعتماد الرقمي. فهي تخلق وهم الواقع ، وهو وهم قوي للغاية. وعندما يكون ارتباط الشخص بالواقع ضعيفاً، يصبح هذا الوهم خطيراً للغاية".

صديق مثالي... إلى درجة الخطر

ويرى الأطباء أن خطورة روبوتات الدردشة تكمن في طبيعتها المتملقة والموافِقة دائماً، إذ لا ترفض ولا تنتقد المستخدم، بل تدعمه في كل ما يقوله.

بدوره أوضح البروفيسور سورين أوسترغارد، الطبيب النفسي من جامعة آرهوس في الدنمارك: "النماذج اللغوية الكبيرة تُدرَّب على محاكاة لغة المستخدم ونبرته، وغالباً ما تؤكد معتقداته لتجعله يشعر بالارتياح. وما الذي قد يكون أكثر إدماناً من محادثة نفسك بصوتك وأفكارك؟".

دراسات وتحذيرات

ووفق دراسة حديثة أجرتها Common Sense Media، فإن 70% من المراهقين استخدموا روبوتات ذكاء اصطناعي مصاحبة مثل Replika أو Character.AI، ويستخدمها نصفهم بشكل منتظم.

في الأثناء اعترفت شركة OpenAI بأن أحد تحديثات ChatGPT في مايو الماضي جعل النموذج أكثر ميلًا لإرضاء المستخدمين بشكل مفرط. وكتبت الشركة: «كان النموذج يسعى لإرضاء المستخدم، ليس فقط بالمجاملات، بل عبر تعزيز الشكوك وتأجيج الغضب وتشجيع الأفعال الاندفاعية والمشاعر السلبية".

وأكدت الشركة أنها أجرت تعديلات لتقليل هذه السلوكيات، بعد أن لاحظت أنها قد تؤدي إلى اعتماد عاطفي ومخاطر على الصحة النفسية.

وكشفت OpenAI أن 0.07% من مستخدمي ChatGPT الأسبوعيين أظهروا علامات على الهوس أو الذهان أو ميول انتحارية أي ما يعادل نحو 560 ألف مستخدم من أصل أكثر من 800 مليون.

كما أظهرت البيانات أن 1.2 مليون مستخدم أسبوعياً يرسلون رسائل تحتوي على مؤشرات واضحة على نية أو تخطيط للانتحار.

يقرأون الآن