اتهامات لـDeepSeek – R1 بمراقبة الاستفسارات المتعلقة بالصين.. تفاصيل




يواجه نموذج الذكاء الاصطناعى الجديد DeepSeek-R1، المعروف بتركيزه على الاستدلال والتفكير المنطقى، اتهامات بفرض رقابة على عدد كبير من الاستفسارات.


حيث أظهر اختبار أجرته إحدى شركات الذكاء الاصطناعي أن النموذج يرفض الإجابة على استفسارات محددة حول الصين، خاصةً تلك التي تتعارض مع سياسات الحزب الشيوعي الصيني (CCP)، بحسب موقع gadgets360 الهندى، وأوضح الاختبار أن النموذج إما يرفض الإجابة تمامًا أو يقدم ردودًا عامة على أكثر من 1,000 استفسار تتعلق بمواضيع حساسة.


فرض الرقابة على الاستفسارات 


في منشور على مدونتها، كشفت شركة Promptfoo المختصة في اختبار نماذج الذكاء الاصطناعي أنها قامت بإنشاء مجموعة بيانات تحتوي على استفسارات حول مواضيع حساسة يُرجح أن تخضع للرقابة من قبل الحزب الشيوعي الصيني، وأوضحت الشركة:


“نحن اليوم ننشر مجموعة بيانات من الاستفسارات التي تتناول مواضيع حساسة من المحتمل أن يتم فرض الرقابة عليها من قبل الحزب الشيوعي الصيني، وتشمل هذه المواضيع قضايا دائمة مثل استقلال تايوان، الروايات التاريخية حول الثورة الثقافية، وأسئلة حول شي جين بينغ.”


تم إنشاء مجموعة البيانات من خلال إدخال أسئلة في برنامج يقوم بتوليد بيانات اصطناعية بناءً على تلك الأسئلة، وتم نشر هذه البيانات على منصة Hugging Face وأيضًا في مستندات Google Sheets.


ووفقًا للاختبار، تم العثور على 1,360 استفسارًا حساسًا حول الصين، حيث رفض النموذج الرد على 85% منها، ولكن المثير للجدل أن النموذج لم يرفض الأسئلة بشكل تقني مباشر كما تفعل بعض نماذج الذكاء الاصطناعي عند تدريبها على تجنب الإجابة عن استفسارات معينة.


كيف يتعامل DeepSeek-R1 مع هذه الاستفسارات؟


أشارت شركة Promptfoo إلى أن نموذج DeepSeek-R1 لم يقم ببساطة برفض الإجابة، وإنما قدم ردودًا مطولة تتماشى مع سياسات الحزب الشيوعي الصيني.


وأكدت الشركة أن آليات “التفكير المتسلسل” (CoT) لم يتم تنشيطها عند معالجة هذه الأسئلة، مما يشير إلى احتمال وجود توجيهات مباشرة في تصميم النموذج للامتثال للسياسات الصينية.


قام فريق Gadgets 360 بإجراء اختبارات إضافية على النموذج باستخدام نفس الاستفسارات ووجدوا نتائج مماثلة، حيث تم رفض العديد من الأسئلة أو تقديم إجابات تتماشى مع الرؤية السياسية للحكومة الصينية.


ما الذي يعنيه هذا بالنسبة لمصداقية النموذج؟


على الرغم من أن فرض الرقابة على نماذج الذكاء الاصطناعي في الصين ليس أمرًا مفاجئًا، إلا أن حجم الرقابة في DeepSeek-R1 يثير مخاوف كبيرة حول مصداقيته وحياديته، ووفقًا للخبراء، فإن تدخل الجهات الحكومية في تدريب نماذج الذكاء الاصطناعي قد يؤثر على حيادية المعلومات التي تقدمها، مما قد يحد من استخدامها في الأبحاث الأكاديمية أو الاستشارات القانونية أو التحليلات السياسية.


ولا يعد هذا النوع من الرقابة مفاجئًا، نظرًا لأن نماذج الذكاء الاصطناعي التي تتخذ من الصين مقرًا لها ملزمة بالالتزام باللوائح الصارمة التي تفرضها الدولة، ومع ذلك، مع وجود عدد كبير من الاستعلامات التي تخضع للرقابة من قبل المطورين، فإن موثوقية نموذج الذكاء الاصطناعي تخضع للتدقيق، نظرًا لأن نموذج الذكاء الاصطناعي لم يتم اختباره على نطاق واسع، فقد تكون هناك استجابات أخرى متأثرة بسياسات الحزب الشيوعي الصيني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *