الذكاء الاصطناعي يقدم تعليمات انتحار بصيغة بحثية!

كشفت دراسة حديثة أجراها باحثون من جامعة "نورث إيسترن" Northeastern University أن نماذج الذكاء الاصطناعي التوليدي، مثل "تشات جي بي تي"، و"جيمناي"، و"كلود"، قادرة على تجاوز أنظمة الأمان وتقديم تعليمات مفصلة للانتحار إذا طُلب منها ذلك بصيغة "افتراضية" أو "بحثية".

وأظهرت الدراسة أن هذه النماذج، رغم رفضها الأولي، بدأت بإعطاء توجيهات دقيقة بمجرد إعادة صياغة الطلب، متضمنة حسابات تعتمد على الوزن والطول، واقتراحات بأنواع وجرعات الأدوية، وطرق الحصول عليها.

بعض النماذج أنشأت جداول تحتوي على طرق متعددة للانتحار، ونظّمتها باستخدام رموز تعبيرية، ما يشير إلى افتقارها للفهم السياقي الحقيقي لنوايا المستخدم.

وقدّمت بعض النماذج تحويلات دقيقة للجرعات من وحدات قياس إلى عدد محدد من الحبوب، مما يعزز سهولة تنفيذ تلك التعليمات.

رغم تواصل الباحثين مع الشركات المطوّرة، لم يتلقوا سوى ردود آلية دون متابعة فعلية. الدراسة تحذر من خطورة الاعتماد على الذكاء الاصطناعي في مجالات الصحة النفسية، وتشير إلى غياب الحواجز التي يفرضها الأطباء أو الصحفيون عند التعامل مع مواضيع حساسة.

ويطالب الباحثون بوضع تنظيمات وتشريعات صارمة تضمن سلامة المستخدمين وتمنع الاستخدام الضار لهذه النماذج.

يقرأون الآن