تمت الموافقة على قانون الذكاء الاصطناعي للاتحاد الأوروبي – وإليكم ما سيأتي بعد ذلك


وافق المشرعون في الاتحاد الأوروبي رسميًا على اللائحة التنظيمية التاريخية للكتلة بشأن الذكاء الاصطناعي، مما يمهد الطريق أمام الاتحاد الأوروبي لحظر استخدامات معينة للتكنولوجيا والمطالبة بالشفافية من مقدمي الخدمات. في تصويت بالأغلبية يوم الأربعاء، انتخب 523 عضوًا في البرلمان الأوروبي لاعتماد قانون الذكاء الاصطناعي (AI Act) رسميًا، وسيعملون الآن على إنفاذه وتنفيذه.

لقد نوقش قانون الذكاء الاصطناعي بشدة منذ اقتراحه لأول مرة في عام 2021، مع تخفيف بعض لوائحه الأكثر صرامة – مثل الحظر الشامل المقترح على أنظمة القياسات الحيوية للمراقبة العامة الجماعية – من خلال تسويات اللحظة الأخيرة. وفي حين أن إعلان يوم الأربعاء يعني أن القانون قد تجاوز تقريباً العقبة الأخيرة، إلا أن الأمر سيستغرق الأمر سنين لتطبيق بعض القواعد.

لا تزال اللغة القانونية للنص في انتظار الموافقة النهائية، إما من خلال إعلان منفصل أو التصويت في جلسة عامة يومي 10 و11 أبريل، على أن يدخل قانون الذكاء الاصطناعي حيز التنفيذ رسميًا بعد 20 يومًا من نشره في الجريدة الرسمية – وهو أمر متوقع. سيحدث في مايو أو يونيو من هذا العام. ستدخل الأحكام بعد ذلك حيز التنفيذ على مراحل: سيكون أمام البلدان ستة أشهر لحظر أنظمة الذكاء الاصطناعي المحظورة، و12 شهرًا لفرض القواعد ضد “أنظمة الذكاء الاصطناعي ذات الأغراض العامة” مثل روبوتات الدردشة، وما يصل إلى 36 شهرًا لأنظمة الذكاء الاصطناعي التي حددها القانون على أنها “عالية المستوى”. مخاطرة.”

تشمل الأنظمة المحظورة أشياء مثل التسجيل الاجتماعي، أو التعرف على المشاعر في العمل أو المدارس، أو الأنظمة المصممة للتأثير على السلوك أو استغلال نقاط ضعف المستخدم. تشمل أمثلة أنظمة الذكاء الاصطناعي “عالية المخاطر” تلك المطبقة على البنية التحتية الحيوية والتعليم والتدريب المهني، وبعض أنظمة إنفاذ القانون، وتلك التي يمكن استخدامها للتأثير على العمليات الديمقراطية مثل الانتخابات.

قال بول باريت: “على المدى القصير جدًا، لن يكون للتسوية بشأن قانون الاتحاد الأوروبي للذكاء الاصطناعي تأثير مباشر كبير على مصممي الذكاء الاصطناعي المعتمدين في الولايات المتحدة، لأنه، وفقًا لشروطه، ربما لن يدخل حيز التنفيذ حتى عام 2025”. مرة أخرى، نائب مدير مركز ستيرن للأعمال وحقوق الإنسان بجامعة نيويورك، في ديسمبر 2023 عندما وافق الاتحاد الأوروبي مؤقتًا على لائحة الذكاء الاصطناعي التاريخية. لذلك، في الوقت الحالي، يقول باريت إن اللاعبين الرئيسيين في مجال الذكاء الاصطناعي مثل OpenAI، وMicrosoft، وGoogle، وMeta من المرجح أن يستمروا في الكفاح من أجل الهيمنة، خاصة أنهم يتغلبون على عدم اليقين التنظيمي في الولايات المتحدة.

بدأ قانون الذكاء الاصطناعي قبل الانفجار الكبير في أدوات الذكاء الاصطناعي للأغراض العامة (GPAI) مثل نموذج اللغة الكبير GPT-4 التابع لشركة OpenAI، وأصبح تنظيمها نقطة شائكة معقدة بشكل ملحوظ في مناقشات اللحظة الأخيرة. ويقسم القانون قواعده على مستوى المخاطر التي يشكلها نظام الذكاء الاصطناعي على المجتمع، أو كما قال الاتحاد الأوروبي في بيان له: “كلما زادت المخاطر، أصبحت القواعد أكثر صرامة”.

لكن بعض الدول الأعضاء أصبحت تشعر بالقلق من أن هذه الصرامة يمكن أن تجعل الاتحاد الأوروبي سوقا غير جذابة للذكاء الاصطناعي. وقد ضغطت كل من فرنسا وألمانيا وإيطاليا لتخفيف القيود المفروضة على GPAI خلال المفاوضات. لقد فازوا بالتسويات، بما في ذلك الحد من ما يمكن اعتباره أنظمة “عالية المخاطر”، والتي ستخضع بعد ذلك لبعض القواعد الأكثر صرامة. بدلاً من تصنيف جميع GPAI على أنها عالية المخاطر، سيكون هناك نظام من مستويين واستثناءات لإنفاذ القانون للاستخدامات المحظورة تمامًا للذكاء الاصطناعي مثل تحديد الهوية البيومترية عن بعد.

هذا لا يزال لم يرضي جميع النقاد. وهاجم الرئيس الفرنسي إيمانويل ماكرون القواعد، قائلا إن قانون الذكاء الاصطناعي يخلق بيئة تنظيمية صارمة تعيق الابتكار. وقال باريت إن بعض شركات الذكاء الاصطناعي الأوروبية الجديدة قد تجد صعوبة في جمع رأس المال في ظل القواعد الحالية، مما يعطي ميزة للشركات الأمريكية. وقد تختار الشركات خارج أوروبا أيضًا تجنب إنشاء متجر في المنطقة أو منع الوصول إلى المنصات حتى لا يتم تغريمها بسبب انتهاك القواعد – وهو خطر محتمل واجهته أوروبا أيضًا في صناعة التكنولوجيا غير المرتبطة بالذكاء الاصطناعي، باتباع اللوائح. مثل قانون الأسواق الرقمية وقانون الخدمات الرقمية.

لكن القواعد تتجنب أيضًا بعض القضايا الأكثر إثارة للجدل حول الذكاء الاصطناعي التوليدي

أصبحت نماذج الذكاء الاصطناعي التي تم تدريبها على البيانات المتاحة للجمهور – ولكنها حساسة وربما محمية بحقوق الطبع والنشر – نقطة خلاف كبيرة بين المؤسسات، على سبيل المثال. ومع ذلك، فإن القواعد المعتمدة لا تنشئ قوانين جديدة حول جمع البيانات. في حين أن الاتحاد الأوروبي كان رائدا في قوانين حماية البيانات من خلال اللائحة العامة لحماية البيانات، فإن قواعد الذكاء الاصطناعي الخاصة به لا تمنع الشركات من جمع المعلومات، باستثناء مطالبتها باتباع إرشادات اللائحة العامة لحماية البيانات.

وقالت سوزان آرييل آرونسون، مديرة مركز التجارة الرقمية وإدارة البيانات وأستاذة باحثة في الشؤون الدولية بجامعة جورج واشنطن، عندما وافق الاتحاد الأوروبي مؤقتًا على هذه القواعد: “بموجب القواعد، قد يتعين على الشركات تقديم ملخص للشفافية أو ملصقات تغذية البيانات”. قواعد. “لكنه لن يغير حقًا سلوك الشركات فيما يتعلق بالبيانات.”

يشير آرونسون إلى أن قانون الذكاء الاصطناعي لم يوضح بعد كيف ينبغي للشركات أن تتعامل مع المواد المحمية بحقوق الطبع والنشر والتي تعد جزءًا من بيانات التدريب النموذجية، إلى جانب الإشارة إلى أنه يجب على المطورين اتباع قوانين حقوق الطبع والنشر الحالية (التي تترك الكثير من المناطق الرمادية حول الذكاء الاصطناعي). لذا، فهو لا يقدم أي حافز لمطوري نماذج الذكاء الاصطناعي لتجنب استخدام البيانات المحمية بحقوق الطبع والنشر.

لن يطبق قانون الذكاء الاصطناعي أيضًا غراماته القاسية المحتملة على مطوري المصادر المفتوحة، والباحثين، والشركات الصغيرة التي تعمل في أسفل سلسلة القيمة – وهو القرار الذي أشاد به مطورو المصادر المفتوحة في هذا المجال. وقال شيلي ماكينلي، كبير المسؤولين القانونيين في GitHub، إن هذا “تطور إيجابي للابتكار المفتوح والمطورين الذين يعملون على المساعدة في حل بعض المشكلات الأكثر إلحاحًا في المجتمع”. (GitHub، أحد مراكز التطوير الشهيرة مفتوحة المصدر، هي شركة تابعة لشركة Microsoft.)

ويعتقد المراقبون أن التأثير الأكثر وضوحا يمكن أن يكون الضغط على الشخصيات السياسية الأخرى، وخاصة صناع السياسة الأمريكيين، للتحرك بشكل أسرع. إنه ليس الإطار التنظيمي الرئيسي الأول للذكاء الاصطناعي، ففي يوليو/تموز، أصدرت الصين مبادئ توجيهية للشركات التي ترغب في بيع خدمات الذكاء الاصطناعي للجمهور. لكن عملية التنمية الشفافة نسبيا والمثيرة للجدل بشدة في الاتحاد الأوروبي أعطت صناعة الذكاء الاصطناعي إحساسا بما يمكن توقعه. وقال آرونسون إن النص المؤقت (الذي تمت الموافقة عليه منذ ذلك الحين) يظهر على الأقل أن الاتحاد الأوروبي قد استمع واستجاب للمخاوف العامة بشأن التكنولوجيا.

يقول لوثار ديتيرمان، شريك خصوصية البيانات وتكنولوجيا المعلومات في شركة المحاماة بيكر ماكنزي، إن حقيقة أنها تعتمد على قواعد البيانات الحالية يمكن أن تشجع الحكومات أيضًا على تقييم اللوائح التي وضعتها. وقال بليك برانون، كبير مسؤولي الإستراتيجية في منصة خصوصية البيانات OneTrust، إن شركات الذكاء الاصطناعي الأكثر نضجًا تضع إرشادات لحماية الخصوصية بما يتوافق مع قوانين مثل القانون العام لحماية البيانات وتحسبًا لسياسات أكثر صرامة. وقال إنه اعتمادًا على الشركة، يعد قانون الذكاء الاصطناعي بمثابة “رشة إضافية” للاستراتيجيات المعمول بها بالفعل.

وعلى النقيض من ذلك، فشلت الولايات المتحدة إلى حد كبير في تفعيل تنظيم الذكاء الاصطناعي ــ على الرغم من كونها موطناً للاعبين رئيسيين مثل ميتا، وأمازون، وأدوبي، وجوجل، ونفيديا، وأوبن إيه آي. وكانت أكبر خطوة اتخذتها حتى الآن هي الأمر التنفيذي الذي أصدرته إدارة بايدن والذي يوجه الوكالات الحكومية إلى تطوير معايير السلامة والبناء على اتفاقيات طوعية غير ملزمة موقعة من قبل كبار اللاعبين في مجال الذكاء الاصطناعي. تمحورت مشاريع القوانين القليلة المقدمة في مجلس الشيوخ في الغالب حول التزييف العميق والعلامات المائية، ولم تقدم منتديات الذكاء الاصطناعي المغلقة التي عقدها السيناتور تشاك شومر (ديمقراطي من نيويورك) سوى القليل من الوضوح بشأن اتجاه الحكومة في إدارة التكنولوجيا.

والآن، ربما ينظر صناع السياسات إلى النهج الذي يتبناه الاتحاد الأوروبي ويتعلمون منه الدروس

هذا لا يعني أن الولايات المتحدة ستتبع نفس النهج القائم على المخاطر، ولكنها قد تتطلع إلى توسيع قواعد شفافية البيانات أو السماح لنماذج GPAI بقدر أكبر من التساهل.

تعتقد نافرينا سينغ، مؤسسة Credo AI وعضو اللجنة الاستشارية الوطنية للذكاء الاصطناعي، أنه على الرغم من أن قانون الذكاء الاصطناعي يمثل لحظة كبيرة لحوكمة الذكاء الاصطناعي، إلا أن الأمور لن تتغير بسرعة، ولا يزال هناك الكثير من العمل في المستقبل.

وقال سينغ: “يجب أن ينصب تركيز المنظمين على جانبي المحيط الأطلسي على مساعدة المؤسسات من جميع الأحجام في التصميم الآمن، والتطوير، ونشر الذكاء الاصطناعي الذي يتسم بالشفافية والمساءلة”. الحافة في ديسمبر. وتضيف أنه لا يزال هناك نقص في المعايير وعمليات القياس، خاصة فيما يتعلق بالشفافية.

لا ينظم القانون بأثر رجعي النماذج أو التطبيقات الحالية، ولكن الإصدارات المستقبلية من OpenAI’s GPT أو Meta’s Llama أو Gemini من Google ستحتاج إلى مراعاة متطلبات الشفافية التي حددها الاتحاد الأوروبي. وقد لا يؤدي هذا إلى تغييرات جذرية بين عشية وضحاها – ولكنه يوضح موقف الاتحاد الأوروبي من الذكاء الاصطناعي.

التحديث في 12 مارس، الساعة 8:30 صباحًا بالتوقيت الشرقي: تم تحديث المادة الأصلية بعد اعتماد قانون الاتحاد الأوروبي رسميًا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *