مقالات آخر تحديث في 
آخر تحديث في 

حراس بوابة الذكاء الاصطناعي ليسوا مستعدين لما هو قادم

يمكن للتكنولوجيات الجديدة أن تغير ميزان القوى العالمي. لقد قسّمت الأسلحة النووية العالم إلى من "يملكون" ومن "لا يملكون". وسمحت الثورة الصناعية لأوروبا بالسباق للأمام في القوة الاقتصادية والعسكرية، مما حفز موجة من التوسع الاستعماري. والسؤال المركزي في ثورة الذكاء الاصطناعي هو من الذي يستفيد؟ ومن سيكون قادرًا على الوصول إلى هذه التكنولوجيا الجديدة القوية؟ ومن سيتخلف عن الركب؟

اسئلة يحاول نائب الرئيس ومدير الدراسات في مركز الأمن الأميركي بول شار ومؤلف كتاب ( Power in the Age of Artificial Intelligence) الاجابة عليها في مقال نشره في صحيفة FOREIGN POLICY

حراس بوابة الذكاء الاصطناعي ليسوا مستعدين لما هو قادم

الذكاء الاصطناعي

حتى وقت قريب، كان الذكاء الاصطناعي تقنية تنتشر بسرعة، ونماذجه مفتوحة المصدر متاحة بسهولة عبر الإنترنت. لكنّ التحول الأخير إلى النماذج الكبيرة، مثل "تشات جي بي تي" الذي أطلقته شركة أبحاث نشر الذكاء الاصطناعي (OpenAI)، ركز القوة في أيدي شركات التكنولوجيا الكبيرة التي يمكنها تحمل تكاليف أجهزة الحوسبة اللازمة لتدريب هذه الأنظمة. ويتوقف توازن قوة الذكاء الاصطناعي العالمية على ما إذا كان ذلك النوع من الذكاء في أيدي عدد قليل من الجهات الفاعلة، كما فعلت الأسلحة النووية، أو الهواتف الذكية.

يملكون ولا يملكون

يؤدي الوصول إلى أجهزة الحوسبة إلى الانقسام بين من يملكون ومن لا يملكون في هذا العصر الجديد من الذكاء الاصطناعي. تستخدم نماذج (Frontier AI) مثل ChatGPT وخليفتها، GPT-4، كميات هائلة من أجهزة الحوسبة. يتم تدريبها باستخدام الآلاف من الرقائق المتخصصة التي تعمل لأسابيع أو أشهر في كل مرة. ويقتصر إنتاج هذه الرقائق والمعدات المستخدمة في تصنيعها على عدد قليل من البلدان الرئيسية: تايوان وكوريا الجنوبية وهولندا واليابان والولايات المتحدة. وهذا يعني أن هذه الدول لديها حق النقض (الفيتو) على من يمكنه الوصول إلى أحدث قدرات الذكاء الاصطناعي. لقد استخدمت الولايات المتحدة بالفعل هذا الاعتماد كسلاح لقطع وصول الصين إلى الرقائق الأكثر تقدمًا.

لقد استجابت الدول لتحدي العصر النووي من خلال التحكم في الوصول إلى المواد اللازمة لصنع الأسلحة النووية. ومن خلال الحد من وصول البلدان إلى اليورانيوم والبلوتونيوم المستخدم في صنع الأسلحة، عمل المجتمع الدولي على إبطاء الانتشار النووي. وسيشكل التحكم في الأجهزة المتخصصة اللازمة لتدريب نماذج الذكاء الاصطناعي الكبيرة بالمثل توازن القوى العالمي.

ثورة

بدأت ثورة التعلم العميق عام 2012، ومع انتقالها إلى عقدها الثاني، هناك العديد من التحولات النموذجية المهمة الجارية. تعد نماذج الذكاء الاصطناعي التوليدية الجديدة مثل (ChatGPT) و (GPT-4 ) ذات أغراض عامة أكثر من أنظمة الذكاء الاصطناعي الضيقة السابقة. وفي حين أنهم لا يمتلكون (حتى الآن) عمومية الذكاء البشري، يمكنهم أداء مجموعة متنوعة من المهام. يحقق ( GPT-4) أداءً على مستوى الإنسان في امتحان الـ (SAT) و (GRE) وامتحان نقابة المحامين الموحد.

وكان تغلب وكيل الذكاء الاصطناعي (AI agent) على أفضل لاعب بشري لي سيدول في لعبة الإستراتيجية الصينية (Go) عام 2016، ولكنه فشل في المقابل بإجراء محادثة أو كتابة قصيدة أو تحليل صورة أو لعب الشطرنج أو صياغة الوصفات أو كتابة برامج الكمبيوتر. في حين يمكن لـ ( GPT-4) القيام بكل هذه الأشياء وأكثر.

نماذج الذكاء

تتمتع نماذج الذكاء الاصطناعي الجديدة ذات الأغراض العامة هذه بإمكانية تحقيق فائدة مجتمعية واسعة النطاق، ولكنها قد تسبب أيضًا ضررًا حقيقيًا. وتعد الأخطاء اللغوية في مقدمة ذلك التضليل على نطاق واسع، ولكن من المحتمل أن تكون الأضرار المستقبلية أسوأ بكثير. إذ يمكن استخدام نماذج اللغة لإنشاء البرامج والمساعدة في الهجمات الإلكترونية. ويمكن تصنيع مركبات كيميائية والمساعدة في صنع أسلحة كيميائية أو بيولوجية، بما يجعل قدراتها ذات الأغراض العامة مزدوجة بطبيعتها، مع كل من التطبيقات المدنية والعسكرية.

وفي حين أن النماذج الحالية لها قيود، فإن أنظمة الذكاء الاصطناعي تتحسن بسرعة مع كل جيل. ويعمل الباحثون بشكل متزايد على تمكينها مع القدرة على الوصول إلى تسجيل الدخول إلى الإنترنت، والتفاعل مع النماذج الأخرى، واستخدام "المختبرات الافتراضية" (Cloud labs) عن بُعد لإجراء التجارب العلمية. لكن الباحثين يبدون قلقا من مخاطر أكبر، مثل نموذج الذكاء الاصطناعي الذي يُظهر سلوك البحث عن السلطة، بما في ذلك الحصول على الموارد، أو استنساخ نفسه، أو إخفاء نواياه عن البشر. ولم تُظهر النماذج الحالية هذا السلوك، لكن تحسينات قدرات الذكاء الاصطناعي غالبًا ما تكون مفاجئة. ولا أحد يستطيع أن يقول على وجه اليقين ما هي قدرات الذكاء الاصطناعي التي ستكون ممكنة خلال 12 شهرًا، ناهيك عن بضع سنوات من الآن.

ليست آمنة

ما هو واضح هو أن أحدث نماذج الذكاء الاصطناعي ليست آمنة ولا أحد يعرف كيفية جعلها آمنة بشكل موثوق. لقد حاولت شركة (OpenAI ) تدريب (ChatGPT ) و (GPT-4 ) على عدم إعطاء المستخدمين معلومات يمكن استخدامها لإحداث ضرر — بنجاح متباين. إذ رفض تطبيق " تشات جي بي تي" المساعدة في إحدى التجارب، في حين رفض (GPT-4 ) تصنيع غاز الخردل، لكنه كان على استعداد لتصنيع غاز الكلور والفوسجين، وهما أسلحة كيميائية مستخدمة في الحرب العالمية الأولى. حتى عندما ترفض نماذج الذكاء الاصطناعي أداء مهمة ضارة بشكل صحيح، يمكن للمستخدمين في كثير من الأحيان الالتفاف من خلال حيل بسيطة، مثل مطالبتها بمحاكاة ما قد يفعله العميل الوصولي. ومع زيادة قدرات الذكاء الاصطناعي وتكاثر الوصول إليها، هناك خطر جسيم من استخدام الجهات الخبيثة لها في هجمات إلكترونية أو هجمات كيميائية أو بيولوجية أو غيرها.

دعوات للتوقف

ودعا الباحثون أخيرا إلى التوقف لمدة ستة أشهر لتطوير نماذج الذكاء الاصطناعي من الجيل التالي بسبب مخاطر الأضرار المجتمعية. وجادل آخرون بأن التحسينات في قدرات الذكاء الاصطناعي يجب أن تتوقف تمامًا. ووقع رؤساء جميع مختبرات الذكاء الاصطناعي الرائدة خطابًا مفتوحًا يحذرون فيه من أن أنظمة الذكاء الاصطناعي المستقبلية يمكن أن تشكل خطرًا وجوديًا على البشرية. ويقوم الاتحاد الأوروبي بصياغة لوائح منظمة العفو الدولية. في أيار/مايو، التقى الرئيس الأميركي جو بايدن بالرؤساء التنفيذيين لكبرى مختبرات الذكاء الاصطناعي لمناقشة ممارسات السلامة، وعقد مجلس الشيوخ جلسة استماع بشأن الإشراف على الذكاء الاصطناعي.

وعلى الرغم من أن العديد من لوائح الذكاء الاصطناعي ستكون خاصة بالصناعة، إلا أن نماذجها ذات الأغراض العامة تتطلب اهتمامًا خاصًا بسبب قدراتها ذات الاستخدام المزدوج. فالتكنولوجيا النووية هي أيضًا استخدام مزدوج بطبيعتها، لكن المجتمع وجد طرقًا لموازنة الفوائد الإيجابية للطاقة النووية مع مخاطر انتشار الأسلحة النووية. ويجب على المجتمع بالمثل إيجاد مناهج تسخر فوائد الذكاء الاصطناعي أثناء إدارة مخاطره.

فوائد

تتمثل إحدى الطرق الرئيسية لجني فوائد الذكاء الاصطناعي، من خلال تقليل مخاطره في التحكم في الوصول إلى أجهزة الحوسبة اللازمة. ويتم تدريب خوارزميات التعلم الآلي على البيانات باستخدام أجهزة الكمبيوتر في شكل رقائق. ومن بين هذه المدخلات التقنية - الخوارزميات والبيانات وأجهزة الحوسبة – أي الأجهزة الأكثر قابلية للتحكم. وعلى عكس البيانات والخوارزميات، تعد الرقائق موردًا ماديًا يمكن التحكم فيه. ويتم تدريب نماذج الذكاء الاصطناعي الأكثر تطورًا، مثل (ChatGPT )، باستخدام كميات هائلة من الرقائق المتخصصة. وبدونها لا يمكن تدريب تلك النماذج، علما أنه يتم إنتاج الرقائق الأكثر تقدمًا في تايوان وكوريا الجنوبية، ولا يمكن تصنيعها إلا باستخدام معدات من اليابان وهولندا والولايات المتحدة. وتتحكم هذه الدول الخمس في الوصول العالمي إلى الرقائق الأكثر تقدمًا.

الرقائق

تعد الأجهزة بالفعل عائقًا أمام الوصول إلى نماذج الذكاء الاصطناعي باستثناء عدد قليل منها. على عكس سباق الفضاء أو مشروع مانهاتن، فإن الجهات الفاعلة الرئيسية في أبحاث الذكاء الاصطناعي ليست الحكومات بل الشركات الخاصة. ولا يتنافس سوى عدد قليل من الشركات مثل (OpenAI) و (Google) و (Microsoft) و (Anthropic) و (Meta) - لتطوير أو استخدام نماذج الذكاء الاصطناعي الأكثر فاعلية. وأثناء قيامهم بذلك، تنفق هذه الشركات مليارات الدولارات لبناء نماذج ذكاء اصطناعي أكبر وأكثر كثافة من الناحية الحسابية. وكانت زادت كمية أجهزة الحوسبة المستخدمة في تدريب نماذج التعلم الآلي المتطورة بمقدار 10 مليارات منذ عام 2010 وتتضاعف كل ستة أشهر تقريبًا. (يتضاعف النمو في أجهزة الحوسبة لتدريب أكبر النماذج كل 10 أشهر تقريبًا). وهذا أسرع بكثير من مضاعفة أداء الرقاقة على مدار 24 شهرًا منذ السبعينيات، والتي توصف أحيانًا باسم قانون مور. ويعد هذا النمو أيضًا أسرع بكثير من تحسينات الأجهزة وحدها، لذا فإن مختبرات الذكاء الاصطناعي تصنع الفارق بشراء المزيد من الرقائق. نتيجة لذلك، ارتفعت تكاليف تدريب نماذج الذكاء الاصطناعي المتطورة بشكل كبير. وقدرت توقعات تكلفة تدريب بعض من أكبر العارضات بعشرات الملايين من الدولارات. قدر الرئيس التنفيذي لشركة (OpenAI) سام ألتمان أن تدريب (GPT-4) يكلف أكثر من 100 مليون دولار. وتنفق شركات التكنولوجيا مليارات الدولارات على الذكاء الاصطناعي. وبعد نجاح التطبيق، أعلنت (Microsoft) عن استثمار بقيمة 10 مليارات دولار في شركة (OpenAI) يقال إن أنثروبيك تخطط لإنفاق مليار دولار لتدريب الجيل القادم من نموذج الذكاء الاصطناعي.

ويعمل هذا السباق للإنفاق على أجهزة الحوسبة على فصل مجتمع الذكاء الاصطناعي، وتركيز القوة في أيدي عدد قليل من الشركات التي تدرب أكثر النماذج تقدمًا. إن الأكاديميين ممنوعون من الوصول إلى نماذج الذكاء الاصطناعي المتطورة لأنهم لا يستطيعون تدريبها. من ناحية أخرى، تمتلك شركات التكنولوجيا الكبرى جيوبًا كبيرة. ولديها القدرة على الإنفاق لاستثمار عشرات المليارات من الدولارات سنويًا في المشاريع التقنية الكبرى إذا رأوا عائدًا. وإذا استمرت الاتجاهات الحالية في التطوير، يمكن أن تزيد قوة الحوسبة العديد من الطلبات الضخمة في العقد المقبل. ويمكن أن يتجه مجال الذكاء الاصطناعي إلى عالم يكون فيه عدد صغير من شركات التكنولوجيا الكبرى هم حراس أنظمة الذكاء الاصطناعي القوية للغاية ويعتمد عليها الجميع للوصول إليها.

الجغرافيا السياسية

ونظرًا للمخاطر، ليس من المستغرب أن تشتعل الجغرافيا السياسية لأجهزة الذكاء الاصطناعي أيضًا. في تشرين الأول/أكتوبر 2022، أصدرت إدارة بايدن ضوابط تصدير على رقائق الذكاء الاصطناعي الأكثر تقدمًا ومعدات تصنيع أشباه الموصلات إلى الصين. في حين أن الرقائق الأكثر تقدمًا ليست مصنوعة في الولايات المتحدة - يتم تصنيعها في تايوان وكوريا الجنوبية - إلا أن هذه الرقائق مصنوعة باستخدام أدوات أميركية، مثل البرامج المتخصصة المستخدمة في إنتاج الرقائق، مما يمنح الولايات المتحدة تأثيرًا فريدًا على من يمكنه الشراء. وكانت فرضت قيودًا تتجاوز الحدود الإقليمية على تايوان وكوريا الجنوبية باستخدام معداتها لتصنيع رقائق متقدمة مخصصة للصين، حتى لو كانت الرقائق نفسها لا تحتوي على تكنولوجيا أميركية. وهنا تجدر الإشارة الى أن ضوابط التصدير الأميركية الإضافية على معدات تصنيع أشباه الموصلات تحرم الصين من المعدات اللازمة لإنتاج رقائقها المتقدمة.

في آذار/مارس، أعلنت اليابان وهولندا عن ضوابط تصدير مماثلة على معدات تصنيع الرقائق المتقدمة إلى الصين. بشكل جماعي، تسيطر الولايات المتحدة وهولندا واليابان على 90 في المئة من السوق العالمية لمعدات تصنيع أشباه الموصلات. وبالنسبة للمعدات الأكثر تقدمًا على الإطلاق - آلات الطباعة الحجرية فوق البنفسجية المستخدمة في صناعة الرقائق المتطورة - تحتكر شركة هولندية هي (ASML) هذا الجانب، وإذا تعاونت الدول الثلاث، فيمكنها حرمان الصين من المعدات اللازمة لإنتاج رقائق متقدمة. وإلى جانب ضوابط التصدير الأميركية على الرقائق نفسها، تهدف هذه الإجراءات إلى منع الصين من شراء أو بناء الرقائق اللازمة لتدريب أكبر نماذج الذكاء الاصطناعي.

ونظرًا لأن نماذج الذكاء الاصطناعي أصبحت أكثر قدرة وتعتمد على كميات متزايدة من قوة الحوسبة، تستعد لتصبح مركزا إستراتيجيًا عالميًا. وتعد أشباه الموصلات اليوم تقنية أساسية مدمجة في جميع أنواع الأجهزة الرقمية، مثل الهواتف والسيارات والأجهزة المتصلة بالإنترنت. لكن التغييرات الجارية تشير إلى مسار مختلف. إذ ينتقل مجال الذكاء الاصطناعي إلى عصر يكون فيه تجميع أشباه الموصلات الأكثر تقدمًا أشبه بامتلاك يورانيوم عالي التخصيب - وهو أحد الأصول الاستراتيجية العالمية التي يصعب الحصول عليها، ولكنه يتيح الوصول إلى قدرات جديدة قوية.

وتتمتع الولايات المتحدة وحلفاؤها بميزة رئيسية في هذه المنافسة الجديدة. إن سيطرتهم على التكنولوجيا اللازمة لتصنيع رقائق متطورة أشبه بفرصة التحكم في إنتاج اليورانيوم العالمي عام 1938. ومع ذلك، هناك قوى أخرى تعمل، في شكل التكنولوجيا، وحوافز السوق، والجغرافيا السياسية، والتي يمكن أن تتسبب في تبخر هذا التحكم.

إغلاق الرقائق

لقد بدأت الولايات المتحدة وحلفاؤها في اتخاذ خطوات لإغلاق الوصول إلى الرقائق المتقدمة، لكن هناك حاجة إلى تدابير إضافية. وبدون إنفاذ مناسب، ستكون ضوابط التصدير على الرقائق غير فعالة، إذ يمكن تحويل الرقائق أو بيعها من خلال وسطاء. وبحسب ما ورد، تمكنت شركة (SenseTime) الصينية للذكاء الاصطناعي، التي أدرجتها الحكومة الأميركية على القائمة السوداء بسبب انتهاكات حقوق الإنسان، من الوصول إلى الشرائح المحظورة من خلال طرف ثالث. وتعد الموارد الحكومية المتزايدة والأدوات الجديدة لتتبع الرقائق ضرورية لضمان عدم تمكن الجهات الفاعلة المحظورة من تجميع كميات كبيرة من الرقائق الخاضعة للرقابة.

ويجب أيضًا التحكم في أجهزة الحوسبة في مراكز البيانات حيث يتم استخدامها لنماذج التدريب. يقال إن شركة صينية أخرى مدرجة في القائمة السوداء لانتهاكات حقوق الإنسان، وهي ( iFLYTEK) ، تحايلت على الضوابط الأميركية من خلال تأجير الرقائق في مراكز البيانات، بدلاً من شرائها على الفور. وتنطبق ضوابط التصدير الحالية في الولايات المتحدة على مبيعات الرقائق فقط. فهي لا تقيد شركات الحوسبة الافتراضية من تقديم الرقائق كخدمة، وهي ثغرة يمكن أن تسمح للجهات المحظورة بالوصول إلى موارد الحوسبة من خلال موفري السحابة. يجب على الحكومات وضع متطلبات "اعرف عميلك"، على غرار متطلبات الصناعة المالية، لشركات الحوسبة السحابية لمنع الجهات الفاعلة غير المشروعة من تدريب نماذج الذكاء الاصطناعي القوية.

وستكون هناك حاجة أيضًا إلى إشراف الحكومة وتنظيم عمليات التدريب على نطاق واسع. يجب أن يُطلب من شركات الذكاء الاصطناعي التي تدرب النماذج القوية إبلاغ الحكومة بالمعلومات حول عمليات التدريب، بما في ذلك حجم النموذج والتصميم، ومجموعات البيانات المستخدمة، ومقدار قوة الحوسبة المستخدمة في التدريب. وبمرور الوقت، مع تطور معايير السلامة، قد يكون هناك حاجة إلى نظام ترخيص حكومي لعمليات التدريب التي من المحتمل أن تؤدي إلى أنظمة ذكاء اصطناعي ذات استخدام مزدوج قادرة بشكل كافٍ، مثل تجاوز عتبة معينة من قوة الحوسبة.

وبمجرد التدريب، يجب أن تخضع النماذج لاختبارات صارمة للتأكد من أنها آمنة قبل النشر. ويجب أن يُطلب من شركات الذكاء الاصطناعي إجراء تقييم للمخاطر والسماح لخبراء الطرف الثالث "بتجميع" النموذج، أو اختباره لتحديد نقاط الضعف والأضرار المحتملة قبل نشره.

OpenAI

لقد جلبت شركة (OpenAI) أكثر من 50 خبيرًا خارجيًا لأشهر من العمل الجماعي قبل إطلاق (GPT-4). وشملت الأضرار المحتملة التي تم تقييمها توليد معلومات مضللة، والمساعدة في صنع أسلحة كيميائية أو بيولوجية، وشن هجمات إلكترونية، وظهور سلوك البحث عن القوة مثل التكرار الذاتي أو الحصول على الموارد. ثم طبقت الشركة تدابير الحد من الذكاء لتحسين سلامة النموذج قبل النشر. وعلى الرغم من هذه الاحتياطات، أثار الاطلاق العام للنموذج مزيدًا من نقاط الضعف، مما يسمح بمجموعة واسعة من السلوكيات بالحصول على معلومات حول تصنيع الأسلحة الكيميائية.


ترجمة رولا عبدالله 

FOREIGN POLICY

يقرأون الآن