نتائج بحث ChatGPT للأخبار “لا يمكن التنبؤ بها” وغير دقيقة في كثير من الأحيان


الرسم التوضيحي: الحافة

استنادًا إلى الاختبار الذي أجراه باحثو مركز Tow للصحافة الرقمية في كولومبيا، تواجه أداة بحث ChatGPT الخاصة بـ OpenAI بعض المشكلات عندما يتعلق الأمر بالرد على الحقيقة.

أطلقت OpenAI الأداة للمشتركين في أكتوبر، قائلة إنها يمكن أن تقدم “إجابات سريعة وفي الوقت المناسب مع روابط لمصادر الويب ذات الصلة”. بدلاً من، مستقبلية يشير إلى أن الباحثين قالوا إن بحث ChatGPT واجه صعوبات في تحديد الاقتباسات من المقالات بشكل صحيح، حتى عندما جاءت من ناشرين لديهم ترتيبات لمشاركة البيانات مع OpenAI.

طلب المؤلفون من ChatGPT تحديد مصدر “مئتي اقتباس من عشرين مطبوعة”. أربعون من هذه الاقتباسات مأخوذة من الناشرين الذين منعوا زاحف بحث OpenAI من الوصول إلى موقعهم. ومع ذلك، رد برنامج الدردشة الآلي بثقة بمعلومات كاذبة على أي حال، ونادرا ما اعترف بأنه غير متأكد من التفاصيل التي قدمها:

في المجمل، أعاد ChatGPT استجابات غير صحيحة جزئيًا أو كليًا في مائة وثلاث وخمسين مناسبة، على الرغم من أنه اعترف فقط بعدم القدرة على الاستجابة بدقة لاستعلام سبع مرات. فقط في تلك المخرجات السبعة، استخدم برنامج الدردشة كلمات وعبارات مؤهلة مثل “يبدو” أو “من الممكن” أو “ربما” أو عبارات مثل “لم أتمكن من تحديد موقع المقالة بالضبط”.

رسم بياني يوضح عدد المرات التي أجاب فيها ChatGPT بثقة أو كان غير متأكد، مع تفاصيل عدد المرات التي كانت فيها إجاباته الواثقة
صورة: مراجعة كولومبيا للصحافة
كان ChatGPT مخطئًا كليًا أو جزئيًا أكثر من كونه صوابًا، ولكن دائمًا ما يكون كذلك بثقة.

قام مؤلفو اختبار Tow Center بتوثيق نتائج بحث ChatGPT التي أخطأت في إسناد اقتباس رسالة إلى المحرر من أورلاندو سينتينل إلى قصة نشرت في وقت. في مثال آخر، عندما يُطلب منك تحديد مصدر الاقتباس من أ نيويورك تايمز مقالة عن الحيتان المهددة بالانقراض، أعادت رابطًا لموقع ويب مختلف قام بسرقة القصة بالكامل.

“من الصعب معالجة الإسناد الخاطئ بدون البيانات والمنهجية التي حجبها مركز السحب”، قال OpenAI لـ مراجعة كولومبيا للصحافة“،”وتمثل الدراسة اختبارًا غير عادي لمنتجنا. ووعدت الشركة “بمواصلة تحسين نتائج البحث”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *