وقع الرئيس الأميركي، جو بايدن، على أمر تنفيذي يضع معايير جديدة للسلامة وحماية الخصوصية في ما يتعلق بالذكاء الاصطناعي، وهي خطوة يقول البيت الأبيض إنها ستحمي معلومات الأميركيين، وتشجع الابتكار والمنافسة، وتعزز الدور الريادي للولايات المتحدة في المجال التكنولوجي.
ووفقا لشبكة "سي بي أس نيوز" انه ومع تأخر القوانين كثيرا عن التقدم التكنولوجي، تروج الإدارة للأمر التنفيذي الجديد باعتباره مبنيا على التزامات طوعية سابقة من بعض شركات التكنولوجيا الرائدة بشأن التطوير الآمن والمضمون للذكاء الاصطناعي.
وفي تصريحات سابقة، وصف الرئيس أمره التنفيذي بأنه "أهم إجراء اتخذته أي حكومة في أي مكان في العالم على الإطلاق بشأن سلامة وأمن وثقة الذكاء الاصطناعي".
وفي تغريدة على موقع أكس، كشف البيت الأبيض الاثنين مجموعة قواعد ومبادئ تهدف إلى التحقق من قيادة أميركا لتنظيم الذكاء الاصطناعي، ومن بينها "حماية خصوصية الأميركيين، وترسيخ المساواة والحقوق المدنية وحماية الابتكار والمنافسة".
ماذا يعني الأمر التنفيذي؟
يضع الأمر التنفيذي معايير ومتطلبات إضافية، بحسب "سي بي أس نيوز"، التي أوضحت أن الأمر يتطلب أن يقوم مطورو أنظمة الذكاء الاصطناعي بمشاركة نتائج اختبارات السلامة الخاصة بهم مع الحكومة الفيدرالية.
وسيُخضع الأمر التنفيذي أنظمة الذكاء الاصطناعي من أمثال مايكروسوفت وغوغل وأمازون لرقابة مجموعة من الإدارات الحكومية وتوجيه قطاع الذكاء الاصطناعي بعيدا عن مسار التنظيم الذاتي، بحسب موقع "بارونز".
ويمثل هذا الإجراء "المحاولة الأكثر طموحا للحكومة الأميركية لتحفيز الابتكار ومعالجة المخاوف من أن التكنولوجيا المزدهرة يمكن أن تؤدي إلى تفاقم التحيز وتشريد العمال وتقويض الأمن القومي"، وفقا لصحيفة "واشنطن بوست".
ويقول البيت الأبيض إن هذا يتماشى مع قانون الإنتاج الدفاعي، الذي يتطلب من الشركات التي تقوم بتطوير نموذج يمكن أن يشكل خطرا على الأمن القومي أو الصحة العامة الوطنية أو الأمن الاقتصادي القومي إخطار الحكومة الفيدرالية ومشاركة النتائج.
وتضمن اختبارات السلامة التي يجريها المطورون، والمعروفة باسم "الفريق الأحمر"، أن المنتجات الجديدة لا تشكل تهديدا كبيرا للمستخدمين أو الجمهور الأوسع، بحسب شبكة "إيه بي سي نيوز".
وإذا لم ينجح المنتج في تقييم السلامة، فيمكن للحكومة الفيدرالية إجبار الشركة إما على إجراء تحسينات على المنتج أو التخلي عن الأمر كليا.
وستعمل الإدارة أيضا على تطوير معايير لفحص التركيب البيولوجي، بهدف الحماية من الاستخدام المحفوف بالمخاطر للذكاء الاصطناعي لإنشاء مواد بيولوجية خطيرة. وستكون هذه المعايير شرطا للتمويل الفيدرالي، بحسب "سي بي أس نيوز".
وذكرت الشبكة أن المعهد الوطني للمعايير والتكنولوجيا سيضع معايير السلامة قبل الإصدار العام، وستقوم وزارة الأمن الداخلي بتطبيق هذه المعايير على قطاعات البنية التحتية الحيوية وإنشاء مجلس السلامة والأمن للذكاء الاصطناعي.
ووفقا للشبكة، ستعمل وزارة الطاقة مع وزارة الأمن الوطني لمعالجة التهديدات التي تواجه البنية التحتية بالإضافة إلى المخاطر الكيميائية والبيولوجية وغيرها من أنواع المخاطر التي يمكن أن تنتج عن الذكاء الاصطناعي.
وأوضحت أنه من المفترض أيضا أن يعمل هذا الأمر على تعزيز الخصوصية من خلال تقييم كيفية قيام الوكالات بجمع واستخدام المعلومات المتاحة تجاريا، ووضع مبادئ توجيهية للوكالات الفيدرالية لتقييم مدى فعالية تقنيات ضمان الخصوصية.
وتريد الإدارة أيضا تعزيز التكنولوجيا والأبحاث التي تحافظ على الخصوصية، مثل أدوات التشفير.
ووفقا لـ"إيه بي سي نيوز"، فمن شأن أحد المعايير الجديدة في الأمر التنفيذي تقنين استخدام العلامات المائية التي تنبه المستهلكين عندما يواجهون منتجا مدعوما بالذكاء الاصطناعي، ما قد يحد من التهديد الذي يشكله المحتوى المحتال مثل التزييف العميق.
ويحاول أمر الرئيس أيضا، بحسب الشبكة، معالجة ما يسميه التمييز الخوارزمي حتى تتمكن وزارة العدل ومكاتب الحقوق المدنية الفيدرالية من التحقيق والمقاضاة على أفضل وجه في انتهاكات الحقوق المدنية المتعلقة بالذكاء الاصطناعي.
ووفقا للشبكة، تعتزم الإدارة تطوير أفضل الممارسات لاستخدام الذكاء الاصطناعي في إصدار الأحكام، والإفراج والاحتجاز السابق للمحاكمة، وتقييم المخاطر، والمراقبة والتنبؤ بالجريمة، من بين أجزاء أخرى من نظام العدالة الجنائية.
ويطور الأمر التنفيذي أيضًا أفضل الممارسات لتقليل أضرار الذكاء الاصطناعي والاستفادة من فوائده عندما يتعلق الأمر بالوظائف ومعايير العمل.
وتريد الإدارة أيضا الاستفادة من خبرات المهاجرين ذوي المهارات العالية وغير المهاجرين الذين لديهم خبرة في المجالات الرئيسية للإقامة والدراسة والعمل في الولايات المتحدة، من خلال جعل عملية مقابلة التأشيرة ومراجعتها أكثر كفاءة.