OpenAI تروج لأبحاث سلامة الذكاء الاصطناعي الجديدة. ويقول النقاد إنها خطوة جيدة، ولكنها ليست كافية


واجهت شركة OpenAI ازدراءً في الأشهر الأخيرة من أولئك الذين أشاروا إلى أنها ربما تندفع بسرعة كبيرة جدًا وبشكل متهور لتطوير ذكاء اصطناعي أكثر قوة. ويبدو أن الشركة عازمة على إظهار أنها تأخذ سلامة الذكاء الاصطناعي على محمل الجد. وقد عرضت اليوم بحثًا تقول إنه يمكن أن يساعد الباحثين في فحص نماذج الذكاء الاصطناعي حتى عندما تصبح أكثر قدرة وإفادة.

تعد التقنية الجديدة واحدة من عدة أفكار تتعلق بسلامة الذكاء الاصطناعي والتي روجت لها الشركة في الأسابيع الأخيرة. وهو يتضمن إشراك نموذجين من نماذج الذكاء الاصطناعي في محادثة تجبر النموذج الأقوى على أن يكون أكثر شفافية، أو “مقروءة”، مع منطقه حتى يتمكن البشر من فهم ما يفعله.

“هذا هو جوهر مهمة بناء.” [artificial general intelligence] هذا آمن ومفيد في نفس الوقت،» هذا ما قاله يينينج تشين، الباحث في OpenAI المشارك في العمل، لمجلة WIRED.

وحتى الآن، تم اختبار العمل على نموذج الذكاء الاصطناعي المصمم لحل المسائل الرياضية البسيطة. طلب باحثو OpenAI من نموذج الذكاء الاصطناعي شرح أسبابه أثناء إجابته على الأسئلة أو حل المشكلات. يتم تدريب النموذج الثاني لاكتشاف ما إذا كانت الإجابات صحيحة أم لا، وقد وجد الباحثون أن إشراك النموذجين ذهابًا وإيابًا شجع النموذج الذي يحل الرياضيات على أن يكون أكثر صراحة وشفافية في تفكيره.

تقوم OpenAI بإصدار ورقة بحثية توضح بالتفصيل هذا النهج. يقول جان هندريك كيرشنر، وهو باحث آخر في OpenAI مشارك في العمل: “إنه جزء من خطة أبحاث السلامة طويلة المدى”. “نأمل أن يتمكن الباحثون الآخرون من المتابعة، وربما تجربة خوارزميات أخرى أيضًا”.

تعد الشفافية وقابلية التفسير من الاهتمامات الرئيسية لباحثي الذكاء الاصطناعي الذين يعملون على بناء أنظمة أكثر قوة. تقدم النماذج اللغوية الكبيرة أحيانًا تفسيرات معقولة لكيفية التوصل إلى نتيجة، ولكن القلق الرئيسي هو أن النماذج المستقبلية قد تصبح أكثر غموضًا أو حتى خادعة في التفسيرات التي تقدمها – ربما تسعى إلى تحقيق هدف غير مرغوب فيه بينما تكذب بشأنه.

يعد البحث الذي تم الكشف عنه اليوم جزءًا من جهد أوسع لفهم كيفية عمل النماذج اللغوية الكبيرة التي تقع في قلب برامج مثل ChatGPT. إنها واحدة من عدد من التقنيات التي يمكن أن تساعد في جعل نماذج الذكاء الاصطناعي الأكثر قوة أكثر شفافية وبالتالي أكثر أمانًا. تستكشف شركة OpenAI وغيرها من الشركات طرقًا أكثر آلية للتعمق في طريقة عمل نماذج اللغات الكبيرة أيضًا.

كشفت OpenAI عن المزيد من أعمالها المتعلقة بسلامة الذكاء الاصطناعي في الأسابيع الأخيرة بعد انتقادات لنهجها. في شهر مايو، علمت WIRED أنه تم حل فريق من الباحثين المخصصين لدراسة مخاطر الذكاء الاصطناعي على المدى الطويل. جاء ذلك بعد وقت قصير من رحيل المؤسس المشارك والقائد الفني الرئيسي إيليا سوتسكيفر، الذي كان أحد أعضاء مجلس الإدارة الذي أطاح لفترة وجيزة بالرئيس التنفيذي سام ألتمان في نوفمبر الماضي.

تأسست OpenAI على وعد بأنها ستجعل الذكاء الاصطناعي أكثر شفافية للتدقيق وأكثر أمانًا. بعد النجاح الهائل لـ ChatGPT والمنافسة الشديدة من المنافسين المدعومين جيدًا، اتهم بعض الأشخاص الشركة بإعطاء الأولوية للتقدم المذهل وحصة السوق على السلامة.

يقول دانييل كوكوتاجلو، الباحث الذي ترك OpenAI ووقع خطابًا مفتوحًا ينتقد فيه نهج الشركة فيما يتعلق بسلامة الذكاء الاصطناعي، إن العمل الجديد مهم، ولكنه تدريجي، وأنه لا يغير حقيقة أن الشركات التي تبني التكنولوجيا تحتاج إلى مزيد من الرقابة. . ويقول: “إن الوضع الذي نحن فيه لم يتغير”. “الشركات الغامضة وغير الخاضعة للمساءلة وغير الخاضعة للتنظيم تتسابق فيما بينها لبناء الذكاء الاصطناعي الفائق، دون أي خطة في الأساس لكيفية السيطرة عليه”.

يقول مصدر آخر على دراية بالأعمال الداخلية لشركة OpenAI، والذي طلب عدم ذكر اسمه لأنه غير مصرح له بالتحدث علنًا، إن هناك حاجة أيضًا إلى الرقابة الخارجية على شركات الذكاء الاصطناعي. يقول المصدر: “السؤال هو ما إذا كانوا جادين بشأن أنواع العمليات وآليات الحوكمة التي تحتاجها لإعطاء الأولوية للمنفعة المجتمعية على الربح”. “ليس ما إذا كانوا يسمحون لأي من باحثيهم بالقيام ببعض الأمور المتعلقة بالسلامة”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *