يبدو أن الضجيج التوليدي للذكاء الاصطناعي لا مفر منه. تعامل معها وجهاً لوجه مع التعليم


أرفيند نارايانان، أ أستاذ علوم الكمبيوتر في جامعة برينستون، اشتهر بتسليط الضوء على الضجيج المحيط بالذكاء الاصطناعي في كتابه Substack، زيت الثعبان AI، مكتوب مع مرشح الدكتوراه ساياش كابور. أصدر المؤلفان مؤخرًا كتابًا يعتمد على رسالتهما الإخبارية الشهيرة حول أوجه القصور في الذكاء الاصطناعي.

لكن لا تخلط الأمور، فهم ليسوا ضد استخدام التكنولوجيا الجديدة. يقول نارايانان: “من السهل إساءة تفسير رسالتنا على أنها تقول إن الذكاء الاصطناعي برمته ضار أو مشكوك فيه”. لقد أوضح، خلال محادثة مع WIRED، أن توبيخه لا يستهدف البرنامج على حد سواء، بل يستهدف الجناة الذين يواصلون نشر ادعاءات مضللة حول الذكاء الاصطناعي.

في زيت الثعبان AI، ينقسم المذنبون بإدامة دورة الضجيج الحالية إلى ثلاث مجموعات أساسية: الشركات التي تبيع الذكاء الاصطناعي، والباحثون الذين يدرسون الذكاء الاصطناعي، والصحفيون الذين يغطون الذكاء الاصطناعي.

الضجيج الفائق الموزعات

الشركات التي تدعي التنبؤ بالمستقبل باستخدام الخوارزميات يتم تصنيفها على أنها الأكثر احتيالًا. وكتب نارايانان وكابور في الكتاب: “عندما يتم نشر أنظمة الذكاء الاصطناعي التنبؤية، فإن أول الأشخاص الذين يتم إلحاق الأذى بهم غالبًا ما يكونون من الأقليات وأولئك الذين يعانون من الفقر بالفعل”. على سبيل المثال، استهدفت الخوارزمية التي استخدمتها حكومة محلية سابقًا في هولندا للتنبؤ بمن قد يرتكب عمليات احتيال في مجال الرعاية الاجتماعية بشكل خاطئ النساء والمهاجرين الذين لا يتحدثون اللغة الهولندية.

يوجه المؤلفون نظرة متشككة أيضًا نحو الشركات التي تركز بشكل أساسي على المخاطر الوجودية، مثل الذكاء العام الاصطناعي، ومفهوم الخوارزمية فائقة القوة الأفضل من البشر في أداء العمل. رغم ذلك، فإنهم لا يسخرون من فكرة الذكاء الاصطناعي العام. يقول نارايانان: “عندما قررت أن أصبح عالم كمبيوتر، كانت القدرة على المساهمة في الذكاء الاصطناعي العام جزءًا كبيرًا من هويتي ودوافعي”. يأتي هذا الاختلال من الشركات التي تعطي الأولوية لعوامل الخطر طويلة المدى فوق تأثير أدوات الذكاء الاصطناعي على الأشخاص في الوقت الحالي، وهي لازمة شائعة سمعتها من الباحثين.

يزعم المؤلفون أن الكثير من الضجيج وسوء الفهم يمكن أيضًا إلقاء اللوم فيه على الأبحاث غير المطابقة للمواصفات وغير القابلة للتكرار. يقول كابور: “لقد وجدنا أنه في عدد كبير من المجالات، تؤدي مسألة تسرب البيانات إلى ادعاءات مفرطة في التفاؤل حول مدى جودة عمل الذكاء الاصطناعي”. يحدث تسرب البيانات بشكل أساسي عندما يتم اختبار الذكاء الاصطناعي باستخدام جزء من بيانات التدريب الخاصة بالنموذج، على غرار تسليم الإجابات للطلاب قبل إجراء الاختبار.

بينما يتم تصوير الأكاديميين في زيت الثعبان AI نظرًا لارتكابهم “أخطاء كتابية”، فإن الصحفيين لديهم دوافع ضارة أكثر ويرتكبون الخطأ عن عمد، وفقًا لباحثي جامعة برينستون: “العديد من المقالات هي مجرد بيانات صحفية أعيدت صياغتها وتم غسلها كأخبار”. ويشار إلى أن المراسلين الذين يتجنبون التقارير الصادقة لصالح الحفاظ على علاقاتهم مع شركات التكنولوجيا الكبرى وحماية وصولهم إلى المديرين التنفيذيين للشركات هم سامون بشكل خاص.

أعتقد أن الانتقادات المتعلقة بالوصول إلى الصحافة عادلة. إذا نظرنا إلى الماضي، كان بإمكاني أن أطرح أسئلة أكثر صرامة أو أكثر ذكاءً خلال بعض المقابلات مع أصحاب المصلحة في أهم الشركات في مجال الذكاء الاصطناعي. لكن ربما يبالغ المؤلفون في تبسيط الأمر هنا. حقيقة أن شركات الذكاء الاصطناعي الكبرى سمحت لي بالدخول لا تمنعني من كتابة مقالات متشككة حول تقنياتها، أو العمل على مقالات استقصائية أعلم أنها ستثير غضبهم. (نعم، حتى لو عقدوا صفقات تجارية، كما فعلت شركة OpenAI، مع الشركة الأم لـ WIRED).

ومن الممكن أن تكون القصص الإخبارية المثيرة مضللة بشأن القدرات الحقيقية للذكاء الاصطناعي. يسلط نارايانان وكابور الضوء على نسخة برنامج الدردشة الآلية لكاتب العمود في صحيفة نيويورك تايمز كيفن روز لعام 2023 والتي تتفاعل مع أداة Microsoft بعنوان “دردشة Bing’s AI: “أريد أن أكون على قيد الحياة.” 😈'” كمثال للصحفيين الذين يثيرون الارتباك العام حول الخوارزميات الواعية. يقول كابور: “كان روز أحد الأشخاص الذين كتبوا هذه المقالات”. “لكنني أعتقد أنه عندما ترى عنوانًا رئيسيًا تلو الآخر يتحدث عن رغبة روبوتات الدردشة في الظهور، فقد يكون لذلك تأثير كبير على النفس العامة.” يذكر كابور برنامج الدردشة الآلي ELIZA من الستينيات، والذي قام مستخدموه بسرعة بتجسيد أداة ذكاء اصطناعي بدائية، كمثال رئيسي على الرغبة الدائمة في إبراز الصفات الإنسانية على مجرد خوارزميات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *