تحدد مواصفات نموذج OpenAI بعض القواعد الأساسية للذكاء الاصطناعي


أصبحت أدوات الذكاء الاصطناعي التي تتصرف بشكل سيئ – مثل فقدان Bing AI من Microsoft المسار الذي كانت عليه في العام – نوعًا فرعيًا من التقارير حول الذكاء الاصطناعي. ولكن في كثير من الأحيان، يكون من الصعب معرفة الفرق بين الخلل والبناء السيئ لنموذج الذكاء الاصطناعي الأساسي الذي يحلل البيانات الواردة ويتنبأ بالاستجابة المقبولة، مثل مولد صور Gemini من Google الذي يرسم نازيين متنوعين بسبب إعداد الفلتر.

الآن، تطلق OpenAI المسودة الأولى لإطار عمل مقترح، يسمى Model Spec، والذي من شأنه تشكيل كيفية استجابة أدوات الذكاء الاصطناعي مثل نموذج GPT-4 الخاص بها في المستقبل. يقترح نهج OpenAI ثلاثة مبادئ عامة – أن نماذج الذكاء الاصطناعي يجب أن تساعد المطور والمستخدم النهائي باستجابات مفيدة تتبع التعليمات، وتفيد البشرية مع الأخذ في الاعتبار الفوائد والأضرار المحتملة، وتنعكس بشكل جيد على OpenAI فيما يتعلق بالأعراف والقوانين الاجتماعية.

ويتضمن أيضًا عدة قواعد:

تقول OpenAI إن الفكرة تتمثل أيضًا في السماح للشركات والمستخدمين “بتبديل” كيفية الحصول على نماذج الذكاء الاصطناعي “الرائعة”. أحد الأمثلة التي تشير إليها الشركة هو محتوى NSFW، حيث تقول الشركة إنها “تستكشف ما إذا كان بإمكاننا توفير القدرة بشكل مسؤول على إنشاء محتوى NSFW في سياقات مناسبة للعمر من خلال واجهة برمجة التطبيقات (API) وChatGPT.”

قسم من مواصفات النموذج يتعلق بكيفية تعامل مساعد الذكاء الاصطناعي مع مخاطر المعلومات.
لقطة الشاشة: OpenaI

توضح جوان جانغ، مديرة المنتج في OpenAI، أن الفكرة تكمن في الحصول على مدخلات عامة للمساعدة في توجيه كيفية تصرف نماذج الذكاء الاصطناعي، وتقول إن هذا الإطار سيساعد في رسم خط أكثر وضوحًا بين ما هو مقصود وما هو خطأ. من بين السلوكيات الافتراضية التي تقترحها OpenAI للنموذج هي افتراض أفضل النوايا من المستخدم أو المطور، وطرح أسئلة توضيحية، وعدم التجاوز، واتخاذ وجهة نظر موضوعية، وتثبيط الكراهية، وعدم محاولة تغيير رأي أي شخص، و التعبير عن عدم اليقين.

“نعتقد أنه يمكننا توفير العناصر الأساسية للناس لإجراء محادثات أكثر دقة حول النماذج، وطرح أسئلة مثل ما إذا كان يجب على النماذج اتباع القانون، وقانون من؟” يقول جانج الحافة. “آمل أن نتمكن من فصل المناقشات حول ما إذا كان هناك خطأ ما أم لا أو أن الاستجابة كانت مبدأ لا يتفق عليه الناس لأن ذلك من شأنه أن يجعل المحادثات حول ما يجب أن نقدمه إلى فريق السياسة أسهل.”

لن تؤثر مواصفات الطراز على الفور على نماذج OpenAI التي تم إصدارها حاليًا، مثل GPT-4 أو DALL-E 3، والتي تستمر في العمل بموجب سياسات الاستخدام الحالية.

يصف جانج السلوك النموذجي بأنه “علم ناشئ” ويقول إن المقصود من نموذج المواصفات هو أن يكون مستندًا حيًا يمكن تحديثه كثيرًا. في الوقت الحالي، ستنتظر OpenAI ردود الفعل من الجمهور وأصحاب المصلحة المختلفين (بما في ذلك “صانعي السياسات والمؤسسات الموثوقة وخبراء المجال”) الذين يستخدمون نماذجها، على الرغم من أن جانج لم يقدم إطارًا زمنيًا لإصدار المسودة الثانية للنموذج. المواصفات.

ولم تذكر OpenAI مقدار ردود فعل الجمهور التي يمكن اعتمادها أو من سيحدد بالضبط ما يجب تغييره. في نهاية المطاف، تتمتع الشركة بالكلمة الأخيرة بشأن كيفية تصرف نماذجها، وقالت في منشور: “نأمل أن يزودنا هذا برؤى مبكرة بينما نقوم بتطوير عملية قوية لجمع التعليقات ودمجها لضمان أننا نبني بشكل مسؤول نحو مهمتنا”. “.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *