OpenAI تنشئ لجنة للسلامة والأمن بينما تختبر نموذجا جديدا للذكاء الاصطناعى
أعلنت شركة OpenAI عن تشكيل لجنة جديدة للإشراف على إجراءات السلامة والأمن المتخذة في مشاريع الشركة وعملياتها، وتتألف لجنة السلامة والأمن من أعضاء مختارين من مجلس الإدارة وهي مكلفة بتقييم ومواصلة تطوير العمليات والضمانات الخاصة بشركة الذكاء الاصطناعي التي يقع مقرها في سان فرانسيسكو.
وتم تشكيل اللجنة الجديدة عندما بدأت OpenAI في اختبار الجيل التالي من نموذج الذكاء الاصطناعي (AI)، والجدير بالذكر أن الشركة شاركت مؤخرًا نموذج المواصفات، وهي وثيقة تسلط الضوء على نهج الشركة تجاه بناء نموذج ذكاء اصطناعي مسؤول وأخلاقى.
لجنة السلامة والأمن فى OpenAI
وفي منشور بالمدونة، سلطت الشركة الضوء على تفاصيل اللجنة المشكلة حديثًا، وجاء في المنشور: “اليوم، شكل مجلس إدارة OpenAI لجنة للسلامة والأمن بقيادة المديرين بريت تايلور (الرئيس)، وآدم دانجيلو، ونيكول سيليجمان، وسام ألتمان (الرئيس التنفيذي)، وستكون هذه اللجنة مسؤولة عن تقديم توصيات إلى مجلس الإدارة بأكمله بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI.”
وبصرف النظر عن المديرين، سيكون رئيس الاستعداد في OpenAI ألكسندر مادري، ورئيس أنظمة السلامة جون شولمان، ورئيس الأمن مات نايت، وكبير العلماء جاكوب باتشوكي أيضًا جزءًا من اللجنة.
وستكون المهمة الأولى للجنة هي تقييم ومواصلة تطوير العمليات والضمانات الخاصة بشركة الذكاء الاصطناعي على مدار التسعين يومًا القادمة، بعد ذلك، ستقوم اللجنة بمشاركة نتائجها وتوصياتها مع مجلس الإدارة بأكمله، وستخضع التوصيات لمراجعة مجلس الإدارة، وبعد ذلك ستقوم OpenAI بمشاركة التوصيات المعتمدة علنًا.
وترتبط هذه التطورات الجديدة في OpenAI بالمبادرة الجديدة للشركة، وقد بدأت في اختبار الجيل التالي من نموذج الذكاء الاصطناعي الخاص بها، ووصفته بنموذج الذكاء الاصطناعي “الحدودي”، وسلطت الضوء على أن نموذج اللغة الكبير هذا الذي لم يتم اختباره بعد سيقرب الشركة خطوة من الذكاء العام الاصطناعي (AGI).
AGI هو نوع من الذكاء الاصطناعي يمكنه فهم المعرفة وتعلمها وتطبيقها عبر مجموعة واسعة من مهام العالم الحقيقي التي تشبه الذكاء البشري، وتسلط بعض تعريفات الذكاء الاصطناعي العام الضوء أيضًا على أنه قادر على الأداء المستقل ويمكنه تطوير مستوى معين من الوعي الذاتي.