كل ما تريد معرفتة عن اتفاق OpenAI وAnthropic بمشاركة نماذج الذكاء الاصطناعى
اتفقت شركة OpenAI وشركة Anthropic على مشاركة نماذج الذكاء الاصطناعي قبل الإصدار وبعده مع معهد سلامة الذكاء الاصطناعي الأمريكي، وستقدم الوكالة، التي تم إنشاؤها بموجب أمر تنفيذي أصدره الرئيس بايدن في عام 2023، تعليقات تتعلق بالسلامة للشركات لتحسين نماذجها. وألمح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إلى الاتفاقية في وقت سابق من هذا الشهر.
ولم يذكر معهد سلامة الذكاء الاصطناعي الأمريكي شركات أخرى تتعامل مع الذكاء الاصطناعي، ولكن في بيان لموقع Engadget، أخبر متحدث باسم Google موقع أن الشركة تجري مناقشات مع الوكالة وستشارك المزيد من المعلومات عندما تكون متاحة، وبدأت جوجل هذا الأسبوع في طرح نماذج محدثة لروبوتات الدردشة ومولدات الصور لـ Gemini.
فالسلامة ضرورية لتحفيز الابتكار التكنولوجي الخارق، وكتبت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي الأمريكي، في بيان: “مع وجود هذه الاتفاقيات، نتطلع إلى بدء تعاوننا الفني مع Anthropic وOpenAI لتعزيز علم سلامة الذكاء الاصطناعي، كما إن هذه الاتفاقيات هي مجرد البداية، ولكنها تمثل علامة فارقة مهمة بينما نعمل على المساعدة في إدارة مستقبل الذكاء الاصطناعي بشكل مسؤول.
ويعد معهد سلامة الذكاء الاصطناعي الأمريكي جزءًا من المعهد الوطني للمعايير والتكنولوجيا (NIST). ويقوم بإنشاء ونشر المبادئ التوجيهية والاختبارات المعيارية وأفضل الممارسات لاختبار وتقييم أنظمة الذكاء الاصطناعي التي يحتمل أن تكون خطرة.
وقالت نائبة الرئيس كامالا هاريس في أواخر عام 2023 بعد إنشاء الوكالة، مثلما يتمتع الذكاء الاصطناعي بالقدرة على تحقيق خير كبير، فإنه لديه أيضًا القدرة على التسبب في ضرر عميق، بدءًا من الهجمات السيبرانية التي يدعمها الذكاء الاصطناعي على نطاق يتجاوز أي شيء رأيناه من قبل إلى الأسلحة البيولوجية المصاغة بواسطة الذكاء الاصطناعي والتي يمكن أن تعرض حياة الملايين للخطر.
الاتفاقية الأولى من نوعها تتم من خلال مذكرة تفاهم (رسمية ولكن غير ملزمة)، وستحصل الوكالة على إمكانية الوصول إلى “النماذج الجديدة الرئيسية” لكل شركة قبل وبعد إصدارها العام. وتصف الوكالة الاتفاقيات بأنها أبحاث تعاونية لتخفيف المخاطر من شأنها تقييم القدرات والسلامة، وسيتعاون معهد سلامة الذكاء الاصطناعي الأمريكي أيضًا مع معهد سلامة الذكاء الاصطناعي في المملكة المتحدة.
يأتي ذلك في الوقت الذي تحاول فيه الهيئات التنظيمية الفيدرالية والمحلية إنشاء حواجز حماية للذكاء الاصطناعي في حين أن التكنولوجيا سريعة التقدم لا تزال ناشئة.
في الاسبوع الجارى ، وافق مجلس ولاية كاليفورنيا على مشروع قانون سلامة الذكاء الاصطناعي (SB 10147) الذي يفرض اختبار السلامة لنماذج الذكاء الاصطناعي التي تكلف أكثر من 100 مليون دولار لتطويرها أو تتطلب قدرًا محددًا من قوة الحوسبة. ويتطلب مشروع القانون من شركات الذكاء الاصطناعي أن يكون لديها مفاتيح إيقاف يمكنها إيقاف تشغيل النماذج إذا أصبحت “غير عملية أو لا يمكن السيطرة عليها”
وخلافاً للاتفاقية غير الملزمة مع الحكومة الفيدرالية، فإن مشروع قانون كاليفورنيا سيكون له بعض القدرة على التنفيذ، فهو يمنح المدعي العام للولاية ترخيصًا لمقاضاة إذا لم يمتثل مطورو الذكاء الاصطناعي، خاصة أثناء الأحداث على مستوى التهديد.
ومع ذلك، لا يزال الأمر يتطلب تصويتًا إضافيًا وتوقيع الحاكم جافين نيوسوم، الذي سيكون لديه حتى 30 سبتمبر ليقرر ما إذا كان سيعطي الضوء الأخضر أم لا.