المواقع الرئيسية تقول لا لإلغاء الذكاء الاصطناعي من Apple
وفي تحليل منفصل أجري هذا الأسبوع، وجد صحفي البيانات بن ويلش أن ما يزيد قليلاً عن ربع المواقع الإخبارية التي قام بمسحها (294 من أصل 1167 مطبوعة باللغة الإنجليزية في المقام الأول ومقرها الولايات المتحدة) تحظر Applebot-Extending. وبالمقارنة، وجد ويلش أن 53% من المواقع الإخبارية في عينته تحظر روبوت OpenAI. قدمت جوجل برنامجها الخاص بالذكاء الاصطناعي، Google-Extending، في سبتمبر الماضي؛ لقد تم حظره بنسبة 43 بالمائة تقريبًا من تلك المواقع، وهي علامة على أن Applebot-Extending ربما لا يزال تحت الرادار. وكما يقول ويلش لمجلة WIRED، فإن الرقم “يتحرك تدريجياً” نحو الأعلى منذ أن بدأ البحث.
لدى ويلز مشروعًا مستمرًا يراقب كيفية تعامل وسائل الإعلام مع عملاء الذكاء الاصطناعي الرئيسيين. ويقول: “لقد ظهر قدر من الانقسام بين ناشري الأخبار حول ما إذا كانوا يريدون حظر هذه الروبوتات أم لا”. “ليس لدي إجابة عن سبب اتخاذ كل مؤسسة إخبارية قرارها. من الواضح أنه يمكننا أن نقرأ عن قيام العديد منهم بعقد صفقات ترخيص، حيث يتم الدفع لهم مقابل السماح للروبوتات بالدخول، ربما يكون هذا عاملاً.
في العام الماضي، ذكرت صحيفة نيويورك تايمز أن شركة آبل كانت تحاول إبرام صفقات الذكاء الاصطناعي مع الناشرين. منذ ذلك الحين، أعلن المنافسون مثل OpenAI وPerplexity عن شراكات مع مجموعة متنوعة من المنافذ الإخبارية والمنصات الاجتماعية والمواقع الإلكترونية الشهيرة الأخرى. يقول جون جيلهام، مؤسس Originality AI: “من الواضح أن الكثير من كبار الناشرين في العالم يتبعون نهجًا استراتيجيًا”. “أعتقد أنه في بعض الحالات، هناك استراتيجية عمل متضمنة، مثل حجب البيانات حتى يتم إبرام اتفاقية شراكة.”
هناك بعض الأدلة التي تدعم نظرية جيلهام. على سبيل المثال، تم استخدام مواقع Condé Nast لحظر برامج زحف الويب الخاصة بـ OpenAI. وبعد أن أعلنت الشركة عن شراكة مع OpenAI الأسبوع الماضي، قامت برفع الحظر عن روبوتات الشركة. (رفضت شركة Condé Nast التعليق على سجل هذه القصة.) وفي الوقت نفسه، قالت المتحدثة باسم Buzzfeed، جوليانا كليفتون، لمجلة WIRED إن الشركة، التي تحظر حاليًا Applebot-Extended، تضع كل روبوت زحف على الويب يعمل بالذكاء الاصطناعي يمكنها التعرف عليه في قائمة الحظر الخاصة بها ما لم يكن مالكها دخل في شراكة – مدفوعة الأجر عادةً – مع الشركة التي تمتلك أيضًا موقع Huffington Post.
نظرًا لأن ملف robots.txt يحتاج إلى التحرير يدويًا، وهناك العديد من عملاء الذكاء الاصطناعي الجدد الذين يظهرون لأول مرة، فقد يكون من الصعب الاحتفاظ بقائمة حظر محدثة. يقول جافين كينج، مؤسس Dark Visitors: “الناس لا يعرفون ما يجب حظره”. تقدم Dark Visitors خدمة مجانية تقوم تلقائيًا بتحديث ملف robots.txt الخاص بموقع العميل، ويقول كينغ إن الناشرين يشكلون جزءًا كبيرًا من عملائه بسبب مخاوف حقوق النشر.
قد يبدو ملف Robots.txt بمثابة منطقة غامضة لمشرفي المواقع، ولكن نظرًا لأهميته الكبيرة للناشرين الرقميين في عصر الذكاء الاصطناعي، فقد أصبح الآن مجالًا للمديرين التنفيذيين لوسائل الإعلام. علمت WIRED أن اثنين من المديرين التنفيذيين من شركات الإعلام الكبرى يقرران بشكل مباشر الروبوتات التي يجب حظرها.
أشارت بعض المنافذ صراحةً إلى أنها تحظر أدوات استخراج الذكاء الاصطناعي لأنها لا تملك حاليًا شراكات مع أصحابها. تقول لورين ستارك، نائب الرئيس الأول لشؤون قسم Vox Media: “نحن نحظر Applebot-Extension في جميع خصائص Vox Media، كما فعلنا مع العديد من أدوات الذكاء الاصطناعي الأخرى عندما لا يكون لدينا اتفاقية تجارية مع الطرف الآخر”. الاتصالات. “نحن نؤمن بأهمية حماية قيمة أعمالنا المنشورة.”