يحذر الخبراء من أن الذكاء الاصطناعي الجامح يمثل خطرًا للانقراض
الشخصيات الرائدة في وقع تطوير أنظمة الذكاء الاصطناعي ، بما في ذلك الرئيس التنفيذي لشركة OpenAI Sam Altman والرئيس التنفيذي لشركة Google DeepMind Demis Hassabis ، بيانًا يحذر من أن التكنولوجيا التي يبنونها قد تشكل يومًا ما تهديدًا وجوديًا للبشرية يمكن مقارنته بالحرب النووية والأوبئة.
“التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى ، مثل الأوبئة والحرب النووية” ، جاء في بيان من جملة واحدة ، صدر اليوم عن مركز أمان الذكاء الاصطناعي ، وهو منظمة غير ربحية.
لطالما ناقش الفلاسفة فكرة أن الذكاء الاصطناعي قد يصبح من الصعب السيطرة عليه ، وأن يدمر البشرية إما عن طريق الخطأ أو عن عمد. ولكن في الأشهر الستة الماضية ، بعد بعض القفزات المفاجئة والمثيرة للقلق في أداء خوارزميات الذكاء الاصطناعي ، أصبحت المشكلة أكثر انتشارًا وجدية.
بالإضافة إلى ألتمان وحسابيس ، وقع البيان داريو أمودي ، الرئيس التنفيذي لشركة Anthropic ، وهي شركة ناشئة مكرسة لتطوير الذكاء الاصطناعي مع التركيز على السلامة. ومن الموقعين الآخرين جيفري هينتون ويوشوا بنجيو – اثنان من ثلاثة أكاديميين حصلوا على جائزة تورينج لعملهم في التعلم العميق ، والتكنولوجيا التي تدعم التطورات الحديثة في التعلم الآلي والذكاء الاصطناعي – بالإضافة إلى العشرات من رواد الأعمال والباحثين الذين يعملون على أحدث تقنيات الذكاء الاصطناعي. مشاكل.
يقول ماكس تيجمارك ، أستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا ومدير معهد فيوتشر أوف لايف ، وهو مؤسسة غير ربحية تركز على المخاطر طويلة المدى التي يشكلها الذكاء الاصطناعي: “البيان مبادرة عظيمة”. في مارس ، نشر معهد Tegmark خطابًا يدعو إلى التوقف لمدة ستة أشهر حول تطوير خوارزميات الذكاء الاصطناعي المتطورة بحيث يمكن تقييم المخاطر. وقع الخطاب المئات من الباحثين والمديرين التنفيذيين لمنظمة العفو الدولية ، بما في ذلك إيلون ماسك.
يقول Tegmark إنه يأمل أن يشجع البيان الحكومات وعامة الناس على أخذ المخاطر الوجودية للذكاء الاصطناعي بجدية أكبر. ويضيف قائلاً: “النتيجة المثالية هي تعميم خطر الانقراض على الذكاء الاصطناعي ، مما يمكّن الجميع من مناقشته دون خوف من السخرية”.
قارن دان هندريكس ، مدير مركز أمان الذكاء الاصطناعي ، لحظة القلق الحالية بشأن الذكاء الاصطناعي بالنقاش بين العلماء الذي أشعله صنع أسلحة نووية. وقال هندريكس في اقتباس صدر مع بيان منظمته: “نحتاج إلى إجراء المحادثات التي كان يجريها العلماء النوويون قبل صنع القنبلة الذرية”.
ترتبط نغمة التنبيه الحالية بعدة قفزات في أداء خوارزميات الذكاء الاصطناعي المعروفة باسم نماذج اللغات الكبيرة. تتكون هذه النماذج من نوع معين من الشبكات العصبية الاصطناعية التي يتم تدريبها على كميات هائلة من النص المكتوب من قبل الإنسان للتنبؤ بالكلمات التي يجب أن تتبع سلسلة معينة. عند تغذية البيانات الكافية ، والتدريب الإضافي في شكل ردود فعل من البشر على الإجابات الجيدة والسيئة ، فإن نماذج اللغة هذه قادرة على إنشاء نص والإجابة على الأسئلة ببلاغة ملحوظة ومعرفة واضحة – حتى لو كانت إجاباتهم غالبًا مليئة بالأخطاء.
لقد أثبتت نماذج اللغات هذه أنها متماسكة وقادرة بشكل متزايد حيث تم تزويدها بالمزيد من البيانات وقوة الكمبيوتر. أقوى نموذج تم إنشاؤه حتى الآن ، GPT-4 من OpenAI ، قادر على حل المشكلات المعقدة ، بما في ذلك تلك التي يبدو أنها تتطلب بعض أشكال التجريد والاستدلال المنطقي.