OpenAI تكشف عن نموذج GPT-4 Turbo مع إمكانات جديدة
أعلنت شركة OpenAI عن تحسين كبير لأحدث نموذج للذكاء الاصطناعي (AI) GPT-4 Turbo، حيث يأتي نموذج الذكاء الاصطناعي الآن مزودًا بقدرات رؤية الكمبيوتر، مما يسمح له بمعالجة وتحليل مدخلات الوسائط المتعددة.
ويمكنه الإجابة على الأسئلة المتعلقة بالصورة والفيديو وغير ذلك الكثير، وسلطت الشركة الضوء أيضًا على العديد من أدوات الذكاء الاصطناعي التي يتم تشغيلها بواسطة GPT-4 Turbo مع Vision بما في ذلك مساعد ترميز الذكاء الاصطناعي Devin وميزة Healthify’s Snap.
وفي الأسبوع الماضي، قدمت شركة الذكاء الاصطناعي ميزة جديدة تسمح للمستخدمين بتحرير الصور التي تم إنشاؤها بواسطة DALL-E 3 داخل ChatGPT، وتم الإعلان عن هذا من خلال الحساب الرسمي لشركة OpenAI Developers، والذي قال في منشور X (المعروف سابقًا باسم Twitter)، “أصبح GPT-4 Turbo مع Vision متاحًا الآن بشكل عام في واجهة برمجة التطبيقات، يمكن لطلبات الرؤية الآن أيضًا استخدام وضع JSON واستدعاء الوظائف ولاحقًا، كشف حساب X الخاص بـ OpenAI أيضًا أن الميزة متاحة الآن في واجهة برمجة التطبيقات (API) ويتم طرحها في ChatGPT”.
ويعد GPT-4 Turbo with Vision هو في الأساس النموذج الأساسي لـ GPT-4 مع مخرجات رمزية أعلى تم تقديمها مع نموذج Turbo، ويأتي الآن مزودًا برؤية كمبيوتر محسنة لتحليل ملفات الوسائط المتعددة، ويمكن استخدام قدرات الرؤية بعدة طرق.
وعلى سبيل المثال، يمكن للمستخدم النهائي استخدام هذه الإمكانية عن طريق تحميل صورة لتاج محل على ChatGPT، ومطالبته بشرح المادة التي يتكون منها المبنىن ويمكن للمطورين اتخاذ هذه الخطوة إلى الأمام وضبط القدرة في أدواتهم لأغراض محددة.
وسلط OpenAI الضوء على بعض حالات الاستخدام هذه في المنشور، ويستخدم Devin chatbot الخاص بـ Cognition AI، وهو مساعد ترميز مدعوم بالذكاء الاصطناعي، GPT-4 Turbo مع Vision لرؤية مهام الترميز المعقدة وبيئة الحماية الخاصة به لإنشاء البرامج.