فيما تتصاعد المخاوف الدولية من الذكاء الاصطناعي وسرعة تطوره، وسط قلق متزايد من ضوابط استعماله، كشفت مصادر مطلعة أن نموذج الذكاء الاصطناعي "كلود" من شركة Anthropic استخدِم في عملية للجيش الأميركي لاعتقال الرئيس الفنزويلي نيكولاس مادورو مطلع الشهر الماضي. ما قد يشكل دليلاً على تنامي اعتماد البنتاغون على نماذج الذكاء الاصطناعي.
علماً أن الإرشادات الخاصة باستخدام نموذج "كلود" يحظر استخدامه في تسهيل العنف، أو تطوير الأسلحة، أو القيام بعمليات المراقبة، وفق ما نقلت صحيفة "وول ستريت جورنال".
في المقابل، أكد متحدث باسم Anthropic أنه "لا يستطيع التعليق عما إذا كان كلود، أو أي نموذج ذكاء اصطناعي آخر، قد استُخدم في أي عملية محددة، سرية أو غير سرية."
لكنه شدد على أن "أي استخدام لكلود، سواء في القطاع الخاص أو عبر الجهات الحكومية، يجب أن يتوافق مع سياسات الاستخدام التي تحكم كيفية نشره." وقال:" نعمل عن كثب مع شركائنا لضمان الالتزام بتلك السياسات"
في حين رفضت وزارة الدفاع الأميركية التعليق على الأمر.
وكانت مصادر مطلعة ذكرت سابقاً أن مخاوف لدى شركة Anthropic من كيفية استخدام "كلود" داخل البنتاغون، دفعت مسؤولين في الإدارة إلى النظر في إلغاء عقد الشركة البالغ قيمته ما يصل إلى 200 مليون دولار.
علماً أن شركة "أنثروبيك" كانت أول مطوّر لنموذج ذكاء اصطناعي يُستخدم في عمليات سرية لوزارة الدفاع.
فيما من الممكن أن تكون أدوات ذكاء اصطناعي أخرى قد استُخدمت في العملية داخل فنزويلا في مهام غير سرية.
إذ يمكن استخدام هذه الأدوات في كل شيء بدءاً من تلخيص الوثائق وحتى التحكم بالطائرات المسيّرة الذاتية.
وقد عبّر الرئيس التنفيذي لAnthropic، داريو آمودي، وغيره من الرؤساء التنفيذيين، علناً عن قلقهم من قوة هذه النماذج والمخاطر التي قد تشكلها على المجتمع. وتميّز آمودي عن العديد من قادة الصناعة بدعوته لزيادة التنظيم ووضع ضوابط صارمة بهدف منع الأضرار المحتملة للذكاء الاصطناعي، وفق "وول ستريت جورنال".
وفي فعالية نُظمت في يناير للإعلان عن تعاون البنتاغون مع شركة xAI، قال وزير الدفاع بيت هيغسث إن الوزارة لن "تستخدم نماذج ذكاء اصطناعي لا تسمح بخوض الحروب"، في إشارة إلى النقاشات التي أجراها مسؤولون في الإدارة مع Anthropic.


