يمكن لـ OpenAI أن تظهر لأول مرة مساعد رقمي متعدد الوسائط يعمل بالذكاء الاصطناعي قريبًا


تعرض OpenAI لبعض عملائها نموذجًا جديدًا للذكاء الاصطناعي متعدد الوسائط يمكنه التحدث معك والتعرف على الأشياء، وفقًا لتقرير جديد من المعلومات. نقلاً عن مصادر لم تسمها شاهدتها، يقول المنفذ إن هذا قد يكون جزءًا مما تخطط الشركة لعرضه يوم الاثنين.

يقال إن النموذج الجديد يقدم تفسيرًا أسرع وأكثر دقة للصور والصوت مما يمكن أن تفعله نماذج النسخ المنفصلة الحالية وتحويل النص إلى كلام. من الواضح أنه سيكون قادرًا على مساعدة وكلاء خدمة العملاء على “فهم نغمة أصوات المتصلين بشكل أفضل أو ما إذا كانوا ساخرين”، و”من الناحية النظرية”، يمكن للنموذج أن يساعد الطلاب في الرياضيات أو ترجمة إشارات العالم الحقيقي، كما يكتب. المعلومات.

تقول مصادر المنفذ أن النموذج يمكن أن يتفوق على GPT-4 Turbo في “الإجابة على بعض أنواع الأسئلة”، لكنه لا يزال عرضة للخطأ بثقة.

من الممكن أن يقوم OpenAI أيضًا بتجهيز قدرة ChatGPT مدمجة جديدة لإجراء مكالمات هاتفية، وفقًا للمطور Ananay Arora، الذي نشر لقطة الشاشة أعلاه للتعليمات البرمجية المتعلقة بالمكالمات. رصدت أرورا أيضًا أدلة على أن OpenAI قامت بتوفير خوادم مخصصة للاتصالات الصوتية والمرئية في الوقت الفعلي.

لن يكون أي من هذا بمثابة GPT-5، إذا تم الكشف عنه الأسبوع المقبل. نفى الرئيس التنفيذي سام ألتمان صراحةً أن يكون لإعلانه القادم أي علاقة بالنموذج الذي من المفترض أن يكون “أفضل ماديًا” من GPT-4. المعلومات يكتب GPT-5 قد يتم إصداره علنًا بحلول نهاية العام.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *