تكنولوجيا

تقرير: شركات الذكاء الاصطناعي لا تعطي السلامة أولوية كافية

تقرير: شركات الذكاء الاصطناعي لا تعطي السلامة أولوية كافية

كشف تقرير حديث صادر عن مؤسسة Future of Life Institute غير الربحية، ومقرها وادي السيليكون، أن شركات الذكاء الاصطناعي لا تبذل جهوداً كافية لحماية البشرية من المخاطر المتزايدة المرتبطة بهذه التقنيات. ويقيّم التقرير، الذي حمل اسم مؤشر سلامة الذكاء الاصطناعي، أداء كبرى الشركات في التعامل مع المخاطر الحالية والمستقبلية للذكاء الاصطناعي.

ومع اتساع دور الذكاء الاصطناعي في حياة البشر، تتضح مخاطره المحتملة، سواء عبر إساءة الاستخدام أو توظيفه في هجمات سيبرانية، فضلًا عن مخاطر مستقبلية تشمل تطوير الأسلحة أو زعزعة استقرار الحكومات. ويرى التقرير أن غياب الحوافز والتنظيم الصارم يدفع الشركات إلى التركيز على التسارع والمنافسة بدل السلامة.

وبحسب المؤشر، لم تتجاوز أعلى درجة حصلت عليها أي شركة مستوى C+، ونالتها شركتا OpenAI وAnthropic، فيما حصلت Google DeepMind على درجة C. وجاءت شركتا Meta وxAI بدرجة D، إلى جانب شركتي Z.ai و DeepSeek الصينيتين، بينما حازت Alibaba Cloud أدنى تقييم بدرجة D-.

واعتمد التقييم على 35 مؤشراً ضمن ست فئات، من بينها السلامة الوجودية، وتقييم المخاطر، وتبادل المعلومات، واستند إلى مصادر علنية واستبيانات، وقام بتقييمها ثمانية خبراء مستقلين. وأشار التقرير إلى أن جميع الشركات جاءت دون المتوسط في مجال السلامة الوجودية، مؤكداً أنه رغم تسارع الطموحات نحو الذكاء الاصطناعي العام، لم تُظهر أي شركة خطة موثوقة لمنع سوء الاستخدام الكارثي أو فقدان السيطرة.

وردّت OpenAI وGoogle DeepMind بالتأكيد على التزامهما بجهود السلامة، فيما انتقد التقرير غياب التزامات واضحة لدى شركات أخرى. وحذّر رئيس المعهد، ماكس تيغمارك، من أن استمرار غياب التنظيم قد يقود إلى مخاطر جسيمة، داعيًا إلى معايير أمان ملزمة. وعلى الرغم من إقرار بعض التشريعات، مثل قانون SB 53 في كاليفورنيا، يرى التقرير أن ما تحقق حتى الآن لا يزال غير كافٍ لضمان سلامة البشرية.

يقرأون الآن