سيتعين على OpenAI وعمالقة التكنولوجيا الآخرين تحذير حكومة الولايات المتحدة عندما يبدأون مشاريع جديدة للذكاء الاصطناعي


عندما اجتاح برنامج ChatGPT التابع لشركة OpenAI العالم في العام الماضي، فاجأ العديد من سماسرة السلطة في كل من وادي السليكون وواشنطن العاصمة. يجب على حكومة الولايات المتحدة الآن أن تحصل على تحذير مسبق بشأن اختراقات الذكاء الاصطناعي المستقبلية التي تنطوي على نماذج لغوية كبيرة، وهي التكنولوجيا التي تقف وراء ChatGPT.

تستعد إدارة بايدن لاستخدام قانون الإنتاج الدفاعي لإجبار شركات التكنولوجيا على إبلاغ الحكومة عندما تقوم بتدريب نموذج للذكاء الاصطناعي باستخدام قدر كبير من القوة الحاسوبية. ويمكن أن تدخل القاعدة حيز التنفيذ في أقرب وقت من الأسبوع المقبل.

سيمنح المتطلب الجديد حكومة الولايات المتحدة إمكانية الوصول إلى المعلومات الأساسية حول بعض المشاريع الأكثر حساسية داخل OpenAI وGoogle وAmazon وشركات التكنولوجيا الأخرى المتنافسة في الذكاء الاصطناعي. وسيتعين على الشركات أيضًا تقديم معلومات حول اختبارات السلامة التي يتم إجراؤها على إبداعاتها الجديدة في مجال الذكاء الاصطناعي.

لقد كانت شركة OpenAI خجولة بشأن مقدار العمل الذي تم إنجازه على خليفة لعروضها الحالية، GPT-4. قد تكون حكومة الولايات المتحدة أول من يعرف متى يبدأ بالفعل اختبار العمل أو السلامة على GPT-5. ولم تستجب OpenAI على الفور لطلب التعليق.

“نحن نستخدم قانون الإنتاج الدفاعي، وهو السلطة التي نتمتع بها بسبب الرئيس، لإجراء مسح يطلب من الشركات أن تشاركنا في كل مرة تقوم فيها بتدريب نموذج لغة كبير جديد، وتشاركنا النتائج – السلامة وقالت جينا ريموندو، وزيرة التجارة الأمريكية، يوم الجمعة، في فعالية أقيمت في معهد هوفر بجامعة ستانفورد: “حتى نتمكن من مراجعتها”، ولم تذكر متى سيدخل هذا المطلب حيز التنفيذ أو الإجراء الذي قد تتخذه الحكومة بشأن المعلومات التي تقدمها. وردت حول مشاريع الذكاء الاصطناعي، ومن المتوقع الإعلان عن المزيد من التفاصيل الأسبوع المقبل.

ويتم تنفيذ القواعد الجديدة كجزء من أمر تنفيذي شامل للبيت الأبيض صدر في أكتوبر الماضي. أعطى الأمر التنفيذي لوزارة التجارة موعدًا نهائيًا في 28 يناير للتوصل إلى خطة سيُطلب بموجبها من الشركات إبلاغ المسؤولين الأمريكيين بتفاصيل حول نماذج الذكاء الاصطناعي الجديدة القوية قيد التطوير. وجاء في الأمر أن هذه التفاصيل يجب أن تتضمن مقدار قوة الحوسبة المستخدمة، ومعلومات عن ملكية البيانات التي يتم إدخالها إلى النموذج، وتفاصيل اختبار السلامة.

يدعو أمر أكتوبر إلى بدء العمل في تحديد متى يجب أن تتطلب نماذج الذكاء الاصطناعي تقديم التقارير إلى وزارة التجارة، لكنه يضع حدًا أوليًا قدره 100 سيبتيليون (مليون مليار مليار أو 1026) عمليات الفاصلة العائمة في الثانية، أو التخبط، ومستوى أقل 1000 مرة لنماذج اللغة الكبيرة التي تعمل على بيانات تسلسل الحمض النووي. لم تكشف شركة OpenAI ولا شركة Google عن مقدار القوة الحاسوبية التي استخدمتها لتدريب أقوى نماذجها، GPT-4 وGemini، على التوالي، لكن تقرير خدمة أبحاث الكونجرس حول الأمر التنفيذي يشير إلى أن 1026 يتخبط يتجاوز قليلاً ما تم استخدامه لتدريب GPT-4.

وأكد ريموندو أيضًا أن وزارة التجارة ستنفذ قريبًا مطلبًا آخر من الأمر التنفيذي الصادر في أكتوبر والذي يتطلب من مقدمي خدمات الحوسبة السحابية مثل أمازون ومايكروسوفت وجوجل إبلاغ الحكومة عندما تستخدم شركة أجنبية مواردها لتدريب نموذج لغوي كبير. يجب الإبلاغ عن المشاريع الأجنبية عندما تتجاوز نفس الحد الأولي وهو 100 سيبتيليون يتخبط.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *