يقدم OpenAI نظرة خاطفة داخل أحشاء ChatGPT


تعرض نهج مطور ChatGPT OpenAI لبناء الذكاء الاصطناعي لانتقادات هذا الأسبوع من الموظفين السابقين الذين يتهمون الشركة بتحمل مخاطر غير ضرورية باستخدام التكنولوجيا التي قد تصبح ضارة.

أصدرت شركة OpenAI اليوم ورقة بحثية جديدة تهدف على ما يبدو إلى إظهار جديتها في معالجة مخاطر الذكاء الاصطناعي من خلال جعل نماذجها أكثر قابلية للتفسير. في هذه الورقة، وضع باحثون من الشركة طريقة للنظر داخل نموذج الذكاء الاصطناعي الذي يدعم ChatGPT. لقد ابتكروا طريقة لتحديد كيفية تخزين النموذج لمفاهيم معينة، بما في ذلك تلك التي قد تتسبب في سوء تصرف نظام الذكاء الاصطناعي.

على الرغم من أن البحث يجعل عمل OpenAI على مراقبة الذكاء الاصطناعي أكثر وضوحًا، إلا أنه يسلط الضوء أيضًا على الاضطرابات الأخيرة في الشركة. تم إجراء البحث الجديد من قبل فريق “superalignment” الذي تم حله مؤخرًا في OpenAI والذي كان مخصصًا لدراسة مخاطر التكنولوجيا على المدى الطويل.

تم تسمية زملاء المجموعة السابقة، إيليا سوتسكيفر وجان لايكي – وكلاهما تركا OpenAI – كمؤلفين مشاركين. كان Sutskever، أحد مؤسسي OpenAI وكبير العلماء سابقًا، من بين أعضاء مجلس الإدارة الذين صوتوا لإقالة الرئيس التنفيذي سام ألتمان في نوفمبر الماضي، مما أدى إلى أيام قليلة من الفوضى بلغت ذروتها بعودة ألتمان كقائد.

يتم تشغيل ChatGPT بواسطة عائلة تسمى نماذج اللغات الكبيرة تسمى GPT، استنادًا إلى نهج التعلم الآلي المعروف باسم الشبكات العصبية الاصطناعية. وقد أظهرت هذه الشبكات الرياضية قدرة كبيرة على تعلم المهام المفيدة من خلال تحليل البيانات النموذجية، ولكن لا يمكن فحص أعمالها بسهولة كما تفعل برامج الكمبيوتر التقليدية. إن التفاعل المعقد بين طبقات “الخلايا العصبية” داخل الشبكة العصبية الاصطناعية يجعل الهندسة العكسية تجعل سبب ظهور نظام مثل ChatGPT باستجابة معينة أمرًا صعبًا للغاية.

“على عكس معظم الإبداعات البشرية، نحن لا نفهم حقًا الأعمال الداخلية للشبكات العصبية،” كتب الباحثون وراء هذا العمل في منشور مدونة مصاحب. يعتقد بعض الباحثين البارزين في مجال الذكاء الاصطناعي أن أقوى نماذج الذكاء الاصطناعي، بما في ذلك ChatGPT، ربما يمكن استخدامها لتصميم أسلحة كيميائية أو بيولوجية وتنسيق الهجمات السيبرانية. يتمثل أحد المخاوف على المدى الطويل في أن نماذج الذكاء الاصطناعي قد تختار إخفاء المعلومات أو التصرف بطرق ضارة من أجل تحقيق أهدافها.

تحدد ورقة OpenAI الجديدة تقنية تقلل من الغموض قليلاً، من خلال تحديد الأنماط التي تمثل مفاهيم محددة داخل نظام التعلم الآلي بمساعدة نموذج إضافي للتعلم الآلي. الابتكار الرئيسي هو تحسين الشبكة المستخدمة للنظير داخل النظام المعني من خلال تحديد المفاهيم، لجعلها أكثر كفاءة.

وقد أثبتت OpenAI هذا النهج من خلال تحديد الأنماط التي تمثل المفاهيم داخل GPT-4، وهو أحد أكبر نماذج الذكاء الاصطناعي. أصدرت الشركة تعليمات برمجية تتعلق بعمل قابلية التفسير، بالإضافة إلى أداة تصور يمكن استخدامها لمعرفة كيفية تنشيط الكلمات في الجمل المختلفة للمفاهيم، بما في ذلك الألفاظ النابية والمحتوى المثير، في GPT-4 ونموذج آخر. إن معرفة كيفية تمثيل النموذج لمفاهيم معينة يمكن أن تكون خطوة نحو القدرة على تقليل تلك المرتبطة بالسلوك غير المرغوب فيه، للحفاظ على نظام الذكاء الاصطناعي على المسار الصحيح. ويمكن أيضًا أن يتيح ضبط نظام الذكاء الاصطناعي لصالح موضوعات أو أفكار معينة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *