هل يُستخدم الذكاء الاصطناعي لأغراض عسكرية؟

كشف خبير مصري عن وجود مخاوف من استخدام الذكاء الاصطناعي لأغراض عسكرية، تهدد حياة الملايين من البشر.

وقال الدكتور محمد محسن رمضان، مستشار الأمن السيبراني ومكافحة الجرائم الإلكترونية، لـ "العربية.نت" و"الحدث.نت" إن الوجه المخيف للذكاء الاصطناعي لا يكمن فقط في قدرته على تحليل البيانات أو محاكاة السلوك البشري، بل في استخدامه خارج إطار الأخلاق والرقابة، مضيفا أن خوارزميات الذكاء الاصطناعي بدأت تُستخدم في تزييف الحقائق عبر فيديوهات "ديب فيك"، وفي تنفيذ عمليات تصيد احتيالي شديدة التعقيد، تُستخدم فيها الهندسة الاجتماعية لإيهام الضحايا.

وتابع قائلا: هناك مخاوف مشروعة من أن تُستغل تقنيات الذكاء الاصطناعي لأغراض عسكرية، حيث يُعد اليوم أحد أبرز الأدوات التي تسعى الدول الكبرى إلى توظيفها في تعزيز قدراتها العسكرية، وتطوير أنظمة أسلحة ذاتية التشغيل، مثل الطائرات دون طيار القادرة على تنفيذ مهام استطلاع وهجوم دون تدخل بشري مباشر، مشيرا إلى أنه يمكن استخدام الذكاء الاصطناعي في تحليل بيانات الأقمار الصناعية والمعلومات الاستخباراتية بسرعة تفوق القدرات البشرية، ما يعزز من دقة اتخاذ القرار في الميدان العسكري.

وكشف الخبير المصري أنه إضافة لذلك، يمكن للذكاء الاصطناعي المساهمة في بناء أنظمة دفاع إلكتروني ذكية، قادرة على رصد الهجمات السيبرانية في وقتها الحقيقي والتصدي لها بشكل تلقائي، موضحا أنه يمكن أن تساهم تقنيات المحاكاة بالذكاء الاصطناعي في تدريب الجنود على سيناريوهات معقدة دون الحاجة إلى ميادين فعلية، مما يقلل من التكاليف ويزيد من الكفاءة.

وأكد رمضان أنه رغم فوائده، فإن استخدام الذكاء الاصطناعي في المجال العسكري يثير مخاوف أخلاقية وقانونية حول مستقبل الحروب ونزع المسؤولية البشرية عن قرارات القتل والتدمير، مطالبا المختصين بضرورة وضع أطر قانونية صارمة لتقنين استخدامه، وتفعيل ميثاق عالمي لأخلاقياته، لحماية المجتمعات من تبعات استخدامه السلبي.

يقرأون الآن