مايكروسوفت تصدر تقرير الشفافية الافتتاحي للذكاء الاصطناعي
فيه تقرير شفافية الذكاء الاصطناعي المسؤول، والذي يغطي بشكل أساسي عام 2023، تروج Microsoft لإنجازاتها حول النشر الآمن لمنتجات الذكاء الاصطناعي. ويعد تقرير شفافية الذكاء الاصطناعي السنوي أحد الالتزامات التي تعهدت بها الشركة بعد توقيع اتفاقية طوعية مع البيت الأبيض في يوليو من العام الماضي. ووعدت مايكروسوفت وغيرها من الشركات بإنشاء أنظمة ذكاء اصطناعي مسؤولة والالتزام بالسلامة.
تقول Microsoft في التقرير إنها أنشأت 30 أداة مسؤولة للذكاء الاصطناعي في العام الماضي، وقامت بتطوير فريق الذكاء الاصطناعي المسؤول لديها، وطلبت من الفرق إنشاء تطبيقات ذكاء اصطناعي منتجة لقياس المخاطر ورسم خرائط لها طوال دورة التطوير. وتشير الشركة إلى أنها أضافت بيانات اعتماد المحتوى إلى منصات توليد الصور الخاصة بها، والتي تضع علامة مائية على الصورة، مع وضع علامة عليها على أنها مصنوعة بواسطة نموذج الذكاء الاصطناعي.
وتقول الشركة إنها منحت عملاء Azure AI إمكانية الوصول إلى الأدوات التي تكتشف المحتوى الإشكالي مثل خطاب الكراهية والمحتوى الجنسي وإيذاء النفس، بالإضافة إلى أدوات لتقييم المخاطر الأمنية. يتضمن ذلك طرقًا جديدة للكشف عن كسر الحماية، والتي تم توسيعها في مارس من هذا العام لتشمل الحقن الفوري غير المباشر حيث تكون التعليمات الضارة جزءًا من البيانات التي يستوعبها نموذج الذكاء الاصطناعي.
كما أنها تعمل على توسيع جهود الفريق الأحمر، بما في ذلك كل من الفرق الحمراء الداخلية التي تحاول عمدًا تجاوز ميزات السلامة في نماذج الذكاء الاصطناعي الخاصة بها بالإضافة إلى تطبيقات الفريق الأحمر للسماح باختبار الطرف الثالث قبل إطلاق نماذج جديدة.
ومع ذلك، فإن وحدات الفريق الأحمر لديها عمل مقطوع بالنسبة لهم. لم تكن عمليات إطلاق الذكاء الاصطناعي للشركة في مأمن من الجدل.
تقول ناتاشا كرامبتون، الرئيس التنفيذي المسؤول عن الذكاء الاصطناعي في مايكروسوفت، في رسالة بالبريد الإلكتروني مرسلة إلى الحافة إن فهم الشركة للذكاء الاصطناعي لا يزال عملاً قيد التقدم، وكذلك الذكاء الاصطناعي المسؤول.
“إن الذكاء الاصطناعي المسؤول ليس له خط نهاية، لذلك لن نفكر أبدًا في عملنا بموجب التزامات الذكاء الاصطناعي التطوعية. يقول كرامبتون: “لكننا أحرزنا تقدمًا قويًا منذ التوقيع عليها ونتطلع إلى البناء على زخمنا هذا العام”.