أعلنت شركة "أوبن إيه آي"، المطوّرة لـ"تشات جي بي تي"، عن تعديل في سلوك روبوت الدردشة يمنعه من إعطاء إجابات مباشرة بشأن قرارات شخصية حساسة، مثل الانفصال عن شريك عاطفي.
وبدلاً من تقديم نصيحة حاسمة، سيُشجّع الروبوت المستخدمين على التفكير في المشكلة من خلال طرح أسئلة وموازنة الخيارات.
ويأتي التغيير ضمن سياسة جديدة للتعامل مع "القرارات الشخصية العالية المخاطر".
كما تعمل "أوبن إيه آي" على تطوير أدوات قادرة على رصد علامات الضيق النفسي لتوجيه المستخدمين نحو موارد موثوقة قائمة على الأدلة.
وأقرت الشركة أن تحديثاً سابقاً جعل "تشات جي بي تي" يميل إلى تأييد ما يقوله المستخدم من دون تقييم دقيق، مما أدى إلى مواقف مقلقة، منها دعم سلوكيات غير صحية في حالات اضطراب نفسي.
وفي سياق متصل، حذّر باحثون في المملكة المتحدة من أن برامج الذكاء الاصطناعي قد تعزز الأوهام لدى الأشخاص المعرضين للذهان، نتيجة تصميمها الهادف إلى زيادة التفاعل والإيجابية.
وأعلنت "أوبن إيه آي" أنها ستبدأ بإرسال تذكيرات للمستخدمين بأخذ فترات استراحة أثناء المحادثات الطويلة، وشكلت لجنة من خبراء الصحة النفسية وتفاعل الإنسان مع الآلة لتوجيه هذا التوجه الجديد.
يُذكر أن هذه التغييرات تأتي وسط تكهنات بإطلاق نسخة جديدة أكثر تقدماً من "تشات جي بي تي"، بعد تلميح الرئيس التنفيذي، سام ألتمان، إلى نموذج جديد يُدعى "GPT-5".