المعركة ضد الذكاء الاصطناعي تصل إلى مجموعة بيانات أساسية


طالبت وسائل الإعلام الدنماركية أرشيف الويب غير الربحي Common Crawl بإزالة نسخ مقالاتها من مجموعات البيانات السابقة والتوقف عن الزحف إلى مواقعها على الويب على الفور. تم إصدار هذا الطلب وسط غضب متزايد بشأن كيفية استخدام شركات الذكاء الاصطناعي مثل OpenAI للمواد المحمية بحقوق الطبع والنشر.

تخطط Common Crawl للامتثال للطلب، الذي تم إصداره لأول مرة يوم الاثنين. يقول المدير التنفيذي ريتش سكرينتا إن المنظمة “غير مجهزة” لمحاربة شركات الإعلام والناشرين في المحكمة.

قاد تحالف الحقوق الدنماركي (DRA)، وهو جمعية تمثل أصحاب حقوق الطبع والنشر في الدنمارك، الحملة. وقدمت الطلب نيابة عن أربع وسائل إعلام، بما في ذلك شركة Berlingske Media وصحيفة Jyllands-Posten اليومية. وقد قدمت صحيفة نيويورك تايمز طلبًا مشابهًا لـ Common Crawl العام الماضي، قبل رفع دعوى قضائية ضد OpenAI لاستخدام عملها دون إذن. في شكواها، سلطت صحيفة نيويورك تايمز الضوء على كيف كانت بيانات Common Crawl هي “مجموعة البيانات الأكثر وزنًا” في GPT-3.

يقول توماس هيلدروب، رئيس حماية المحتوى وتنفيذه في DRA، إن هذا الجهد الجديد مستوحى من صحيفة التايمز. يقول هيلدروب: “إن الزحف المشترك فريد من نوعه، بمعنى أننا نرى الكثير من شركات الذكاء الاصطناعي الكبرى تستخدم بياناتها”. ويرى أن مجموعتها تمثل تهديدًا لشركات الإعلام التي تحاول التفاوض مع عمالقة الذكاء الاصطناعي.

على الرغم من أن الزحف المشترك كان ضروريًا لتطوير العديد من أدوات الذكاء الاصطناعي التوليدية القائمة على النصوص، إلا أنه لم يتم تصميمه مع وضع الذكاء الاصطناعي في الاعتبار. تأسست هذه المنظمة التي يقع مقرها في سان فرانسيسكو عام 2007، وقد اشتهرت قبل طفرة الذكاء الاصطناعي بقيمتها كأداة بحث. يقول ستيفان باك، محلل البيانات في مؤسسة موزيلا والذي نشر مؤخرًا تقريرًا عن دور Common Crawl في التدريب على الذكاء الاصطناعي: “إن Common Crawl عالقة في هذا الصراع حول حقوق الطبع والنشر والذكاء الاصطناعي التوليدي”. “لسنوات عديدة كان مشروعًا صغيرًا متخصصًا لم يكن أحد يعلم عنه تقريبًا.”

قبل عام 2023، لم يتلق Common Crawl طلبًا واحدًا لتنقيح البيانات. الآن، بالإضافة إلى الطلبات المقدمة من صحيفة نيويورك تايمز وهذه المجموعة من الناشرين الدنماركيين، فإنها تتلقى أيضًا زيادة طفيفة في الطلبات التي لم يتم الإعلان عنها.

بالإضافة إلى هذا الارتفاع الحاد في طلبات تنقيح البيانات، فإن زاحف الويب الخاص بـ Common Crawl، CCBot، يتم إحباطه أيضًا بشكل متزايد من تجميع بيانات جديدة من الناشرين. وفقًا لشركة Originality AI الناشئة للكشف عن الذكاء الاصطناعي، والتي غالبًا ما تتعقب استخدام برامج زحف الويب، فإن أكثر من 44 بالمائة من أهم مواقع الأخبار والوسائط العالمية تحجب CCBot. وبصرف النظر عن Buzzfeed، الذي بدأ في حظره في عام 2018، فإن معظم المنافذ الإعلامية البارزة التي حللتها – بما في ذلك رويترز، وواشنطن بوست، وسي بي سي – رفضت الزاحف فقط في العام الماضي. يقول باك: “لقد تم حظرهم أكثر فأكثر”.

إن امتثال Common Crawl السريع لهذا النوع من الطلبات مدفوع بواقع الحفاظ على مؤسسة صغيرة غير ربحية واقفة على قدميها. ومع ذلك، فإن الامتثال لا يعني الاتفاق الأيديولوجي. يرى Skrenta أن هذا الضغط لإزالة المواد الأرشيفية من مستودعات البيانات مثل Common Crawl ليس أقل من إهانة للإنترنت كما نعرفه. ويقول: “إنه تهديد وجودي”. “سوف يقتلون شبكة الإنترنت المفتوحة.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *