الذكاء الاصطناعى ليس معصومًا من الخطأ.. ردود غريبة لـ ChatGPT تثير الجدل
واعترفت OpenAI بأن المستخدمين كانوا يتلقون “استجابات غير متوقعة” وقاموا بإصلاح المشكلة بسرعة بعد ظهر الأربعاء.
وأوضحت الشركة: “لقد أدى تحسين تجربة المستخدم إلى ظهور خطأ في كيفية معالجة النموذج للغة”، على وجه التحديد، تولد نماذج اللغات الكبيرة (LLMs) استجابات عن طريق أخذ عينات عشوائية من الكلمات وتعيين أرقامها المشتقة إلى الرموز المميزة، حيث يمكن أن تسوء الأمور بشدة إذا لم يقم النموذج باختيار الأرقام الصحيحة.
وتابع OpenAI: “كان الخطأ في الخطوة التي يختار فيها النموذج هذه الأرقام”. “على غرار مشكلات في الترجمة، اختار النموذج أرقامًا خاطئة قليلاً، مما أدى إلى إنتاج تسلسلات كلمات لا معنى لها، ومن الناحية الفنية، أنتجت نواة الاستدلال نتائج غير صحيحة عند استخدامها في تكوينات معينة لوحدة معالجة الرسومات.”
ثم قامت OpenAI بطرح إصلاح وأكدت أنه تم حل الحادث، ربما عاد إلى إصدار سابق ومستقر من LLM.
وفي هذا الإطار، وصف تقرير zdnet هذا الأمر بمثابة تذكير صارخ بالتعقيدات ونقاط الضعف المحتملة الكامنة في تقنيات الذكاء الاصطناعي، على الرغم من كل ما نحبه في الذكاء الاصطناعي التوليدي، فإنه ليس معصومًا من الخطأ.
تطرح جميع نماذج البرامج كخدمة تقريبًا إصدارات جديدة لعدد محدود من المستخدمين، وبعد ذلك عندما يصبح من الواضح أن الإصدار الجديد يعمل بشكل جيد، ستقوم الشركة بطرحه للجميع، لكن لا يبدو أن هذا هو الحال ينطبق على ما حدث لربوت الدردشة الآلي، ويبدو أن العديد من المستخدمين، إن لم يكن جميعهم، قد تأثروا.
ومن الغريب أن ChatGPT عادة ما يحد من عمليات نشره، على سبيل المثال ميزة الذاكرة الجديدة في ChatGPT – حيث يتذكر البرنامج محادثاتك معه – لا تزال غير متاحة للجميع، ما يثير الجدل حول الاعتماد مبكرًا جدًا على ChatGPT – أو روبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي للعمل اليومي.