يشكّل الذكاء الاصطناعي التوليدي اليوم محوراً أساسياً في نقاشات الأمن السيبراني، بعد أن أصبح قادراً على إنتاج نصوص وصور ووسائط رقمية تحاكي الواقع بدقة عالية.
ورغم الفوائد الكبيرة لهذه التقنيات في مجالات مثل الصحة والتحليلات المالية، إلا أنها تفتح الباب أمام تهديدات متزايدة لخصوصية الأفراد وأمن بياناتهم.
تعتمد النماذج التوليدية على قواعد بيانات ضخمة يتم جمعها من مصادر مفتوحة، ما قد يشمل محتوى شخصياً لم يُصرَّح باستخدامه.
هذه الممارسات تثير تساؤلات حول ملكية البيانات والسيطرة عليها، خصوصاً مع إمكانية إعادة توظيفها في إنشاء محتوى مزيف أو انتحال هوية رقمية عبر تقنيات “الديب فيك”.
وتبرز خطورة إضافية في غياب الشفافية؛ فغالبية هذه الأنظمة تعمل كـ"صناديق سوداء" يصعب تتبع آلية معالجتها للبيانات.
كما أن احتفاظ الشركات بمداخلات المستخدمين بحجة تطوير الأنظمة يضاعف من احتمالية استغلالها في هجمات تصيد أو تسريبات بيانات.
في البيئات الحساسة كالقطاع الصحي أو القانوني، يمكن أن يقود الاعتماد غير المنضبط على الذكاء الاصطناعي إلى خرق مباشر للسرية.
من هنا تتصاعد المطالب بوضع أطر تنظيمية صارمة، وتبني مبدأ "الخصوصية بالتصميم" لضمان أن الابتكار لا يتحول إلى تهديد للأمن السيبراني وحقوق الأفراد.