تكنولوجيا

دعوى إيلون ماسك ضد "OpenAI" تكشف صراعاً داخلياً حول سلامة الذكاء الاصطناعي


دعوى إيلون ماسك ضد

سلطت الدعوى القضائية التي رفعها إيلون ماسك ضد "OpenAI" الضوء على جدل متصاعد داخل الشركة بشأن ما إذا كانت قد تخلت تدريجياً عن أولويات السلامة لصالح التوسع التجاري وتسريع طرح منتجات الذكاء الاصطناعي في الأسواق.

وخلال جلسة عقدتها محكمة فيدرالية بمدينة أوكلاند، أدلت موظفة سابقة وعضو سابق في فرق السلامة داخل "OpenAI" بشهادة أكدت فيها أن الشركة تحولت بمرور الوقت من مؤسسة بحثية تركز على سلامة الذكاء الاصطناعي إلى كيان يركز بصورة أكبر على المنتجات والنمو التجاري.

وقالت روزي كامبل، التي انضمت إلى فريق جاهزية الذكاء الاصطناعي العام عام 2021 وغادرت الشركة في 2024 بعد حل فريقها، إن النقاشات داخل "OpenAI" كانت تتمحور في البداية حول الذكاء الاصطناعي العام وقضايا السلامة، قبل أن يتغير التركيز تدريجياً نحو تطوير المنتجات.

وأضافت أن فرقاً متخصصة بالسلامة، مثل فريق “Super Alignment”، جرى إيقافها خلال الفترة نفسها.

وأشارت كامبل إلى حادثة أثارت قلقاً داخل الشركة، تمثلت في قيام "مايكروسوفت" بنشر نسخة من نموذج GPT-4 داخل محرك بينغ في الهند قبل خضوعها لمراجعة مجلس سلامة النشر داخل "OpenAI".

ورغم تأكيدها أن النموذج لم يكن يشكل خطراً كبيراً بحد ذاته، فإنها شددت على أهمية الالتزام بإجراءات السلامة مع تزايد قوة أنظمة الذكاء الاصطناعي مستقبلاً.

وخلال الاستجواب المضاد، أقرت كامبل بأن تطوير الذكاء الاصطناعي العام يتطلب تمويلاً ضخماً، لكنها أكدت أن بناء أنظمة فائقة الذكاء دون ضوابط أمان صارمة لا يتوافق مع الرسالة الأصلية التي انضمت من أجلها إلى الشركة.

كما أقرّت، بحسب وصفها "التخميني"، بأن نهج "OpenAI" الحالي في السلامة قد يكون أكثر تطوراً من شركة xAI التابعة لماسك.

وتزامنت الشهادة مع عودة الجدل حول إقالة الرئيس التنفيذي سام ألتمان بشكل مؤقت عام 2023، وهي الأزمة التي ارتبطت بمخاوف داخلية من ضعف الشفافية في إدارة الشركة.

وأدلت تاشا ماكولي، العضو السابق في مجلس إدارة "OpenAI"، بشهادة أكدت فيها أن المجلس كان يواجه صعوبة في الحصول على معلومات كافية لاتخاذ قرارات مدروسة، رغم أن مهمته الأساسية كانت الإشراف على الذراع الربحية التابعة للمؤسسة غير الربحية.

وأضافت أن ألتمان لم يبلغ المجلس مسبقاً بقرار إطلاق تشات جي بي تي للعامة، كما اتهمته بإخفاء بعض تضارب المصالح المحتمل وعدم تقديم صورة كاملة للمجلس.

وقالت ماكولي إن هيكل الحوكمة داخل "OpenAI" أصبح موضع شك، مضيفة أن القرارات المصيرية كانت تتركز فعلياً بيد الرئيس التنفيذي، وهو ما وصفته بأنه "وضع غير مثالي عندما تكون المصلحة العامة على المحك".

وتُعد هذه القضية محورية في دعوى ماسك، الذي يتهم "OpenAI" بالانحراف عن هدفها الأصلي كمؤسسة بحثية غير ربحية تعمل لصالح البشرية، وتحولها إلى واحدة من أكبر الشركات الخاصة في العالم مدفوعة بالأرباح والاستثمارات التجارية.

كما استغل خبراء قانونيون داعمون لماسك القضية للتأكيد على أن التزام شركات الذكاء الاصطناعي بالسلامة لا يجب أن يبقى مجرد وعود، بل ينبغي أن ينعكس في آليات رقابة فعلية وإجراءات صارمة قبل إطلاق التقنيات المتقدمة.

وتأتي هذه التطورات في وقت يتزايد فيه الجدل العالمي بشأن الحاجة إلى تنظيمات حكومية أقوى للإشراف على تقنيات الذكاء الاصطناعي المتقدمة، خاصة مع توسع استخدامها داخل الشركات التجارية الكبرى وتأثيرها المتزايد على المجتمع والاقتصاد.

يقرأون الآن