قام تراي ستيفنز ببناء أسلحة الذكاء الاصطناعي وعمل لدى دونالد ترامب. وكما يرى ذلك، فإن يسوع سيوافق عليه


عندما كتبت عن شركة Anduril في عام 2018، قالت الشركة صراحةً إنها لن تصنع أسلحة فتاكة. أنت الآن تقوم ببناء طائرات مقاتلة وطائرات بدون طيار تحت الماء وغيرها من أسلحة الحرب الفتاكة. لماذا قمت بهذا المحور؟

لقد استجبنا لما رأيناه، ليس فقط داخل جيشنا ولكن أيضًا في جميع أنحاء العالم. نريد أن نكون متوافقين مع تقديم أفضل القدرات بأكثر الطرق الأخلاقية الممكنة. والبديل هو أن يقوم شخص ما بذلك على أي حال، ونحن نعتقد أنه يمكننا القيام بذلك على أفضل وجه.

هل كانت هناك مناقشات للبحث عن الذات قبل تجاوز هذا الخط؟

هناك نقاش داخلي مستمر حول ما يجب بناءه وما إذا كان هناك توافق أخلاقي مع مهمتنا. لا أعتقد أن هناك فائدة كبيرة في محاولة تحديد خطنا الخاص عندما تكون الحكومة هي التي تحدد هذا الخط بالفعل. لقد أعطوا توجيهات واضحة بشأن ما سيفعله الجيش. نحن نتبع خطى حكومتنا المنتخبة ديمقراطيًا لتخبرنا بقضاياها وكيف يمكننا تقديم المساعدة.

ما هو الدور المناسب للذكاء الاصطناعي المستقل في الحرب؟

ولحسن الحظ، فقد قامت وزارة الدفاع الأمريكية بعمل أكثر في هذا الشأن ربما أكثر من أي منظمة أخرى في العالم، باستثناء الشركات النموذجية التأسيسية الكبرى للذكاء الاصطناعي. هناك قواعد واضحة للاشتباك تُبقي البشر على اطلاع. أنت تريد إخراج البشر من الوظائف المملة والقذرة والخطيرة وجعل عملية صنع القرار أكثر كفاءة مع إبقاء الشخص دائمًا مسؤولاً في نهاية اليوم. هذا هو الهدف من كل السياسات التي تم وضعها، بغض النظر عن التطورات في الحكم الذاتي في السنوات الخمس أو العشر القادمة.

قد يكون هناك إغراء في الصراع بعدم انتظار التدخل البشري، عندما تظهر الأهداف في لحظة، خاصة مع أسلحة مثل الطائرات المقاتلة ذاتية التحكم.

البرنامج المستقل الذي نعمل عليه لطائرات فيوري [a fighter used by the US Navy and Marine Corps] تسمى CCA، الطائرات القتالية التعاونية. هناك رجل في طائرة يتحكم ويقود الطائرات المقاتلة الآلية ويقرر ما يفعلونه.

ماذا عن الطائرات بدون طيار التي تقوم ببنائها والتي تحلق في الهواء حتى ترى الهدف ثم تنقض؟

هناك تصنيف للطائرات بدون طيار تسمى ذخائر loiter، وهي طائرات تبحث عن الأهداف ومن ثم يكون لديها القدرة على التحرك على تلك الأهداف، مثل الانتحارية. مرة أخرى، لديك إنسان في الحلقة وهو المسؤول.

الحرب فوضوية. أليس هناك قلق حقيقي من أن هذه المبادئ سوف تُنحى جانباً بمجرد بدء الأعمال العدائية؟

البشر يخوضون الحروب، والبشر معيبون. نحن نرتكب الأخطاء. حتى عندما كنا نقف في طوابير ونطلق النار على بعضنا البعض بالبنادق، كانت هناك عملية للفصل في انتهاكات قانون الاشتباك. أعتقد أن هذا سوف يستمر. هل أعتقد أنه لن تكون هناك أبدًا حالة يُطلب فيها من نظام مستقل القيام بشيء يبدو وكأنه انتهاك صارخ للمبادئ الأخلاقية؟ بالطبع لا، لأن البشر ما زالوا هم المسؤولون. هل أعتقد أنه من الأكثر أخلاقية خوض صراع خطير وفوضوي مع الروبوتات الأكثر دقة، والأكثر تمييزا، والأقل احتمالا أن تؤدي إلى التصعيد؟ نعم. اتخاذ القرار لا للقيام بذلك هو الاستمرار في تعريض الناس للأذى.

الصورة: بيتون فولفورد

أنا متأكد من أنك على دراية برسالة أيزنهاور الأخيرة حول مخاطر المجمع الصناعي العسكري الذي يخدم احتياجاته الخاصة. هل يؤثر هذا التحذير على طريقة عملك؟

هذا أحد الخطابات الرائعة على الإطلاق – أقرأه مرة واحدة على الأقل في السنة. كان أيزنهاور يصوغ مجمعاً صناعياً عسكرياً لا تختلف فيه الحكومة كثيراً عن المقاولين مثل لوكهيد مارتن، وبوينغ، ونورثروب جرومان، وجنرال ديناميكس. هناك باب دوار في المستويات العليا لهذه الشركات، وتصبح مراكز قوة بسبب هذا الترابط. كان Anduril يدفع باتجاه نهج تجاري أكثر لا يعتمد على هيكل الحوافز المرتبط ارتباطًا وثيقًا. نقول: “دعونا نبني الأشياء بأقل تكلفة، باستخدام التقنيات الجاهزة، ونفعل ذلك بطريقة نتحمل فيها قدرًا كبيرًا من المخاطر”. وهذا يتجنب بعض هذا التوتر المحتمل الذي حدده أيزنهاور.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *