أنا لست مقتنعا بالتوليد الأخلاقي الذكاء الاصطناعي حاليا
هل هناك توليد أدوات الذكاء الاصطناعي التي يمكنني استخدامها والتي ربما تكون أكثر أخلاقية من غيرها؟
– اختيارات
لا ، لا أعتقد أن أي أداة منظمة العفو الدولية من اللاعبين الرئيسيين أكثر أخلاقية من أي أداة أخرى. هذا هو السبب.
بالنسبة لي ، يمكن تقسيم أخلاقيات استخدام الذكاء الاصطناعي إلى القضايا المتعلقة بكيفية تطوير النماذج – على وجه التحديد ، كيف تم الوصول إلى البيانات المستخدمة لتدريبها – وكذلك المخاوف المستمرة بشأن تأثيرها البيئي. من أجل تشغيل chatbot أو مولد الصور ، يلزم وجود كمية فاحشة من البيانات ، والقرارات التي اتخذها مطورو في الماضي – والاستمرار في عملها – للحصول على هذا المستودع للبيانات مشكوك فيه وذات سرية. حتى ما يطلق عليه الأشخاص في وادي السيليكون نماذج “مفتوح المصدر” يخفي مجموعات بيانات التدريب في الداخل.
على الرغم من الشكاوى المقدمة من المؤلفين والفنانين والمخرجين ومبدعي YouTube ، وحتى مستخدمي الوسائط الاجتماعية فقط الذين لا يريدون كشط منشوراتهم وتحولوا إلى حمأة chatbot ، فإن شركات الذكاء الاصطناع لاستخدامها كبيانات تدريب. أحد المطالبات المألوفة من مؤيدي الذكاء الاصطناعى هو الحصول على هذا مقدار البيانات الهائلة بموافقة البشر الذين صاغوا ذلك سيكون غير عملي للغاية وستعوق الابتكار. حتى بالنسبة للشركات التي أبرمت صفقات الترخيص مع الناشرين الرئيسيين ، فإن أن البيانات “النظيفة” هي جزء لا حصر له من الآلة الهائلة.
على الرغم من أن بعض devs يعملون على مقاربات لتعويض الأشخاص إلى حد ما عند استخدام عملهم لتدريب نماذج الذكاء الاصطناعى ، إلا أن هذه المشاريع تظل بدائل متخصصة إلى حد ما للسلع الرئيسية.
ثم هناك عواقب بيئية. التأثير البيئي الحالي لاستخدام الذكاء الاصطناعى التوليدي هو بالمثل عبر الخيارات الرئيسية. في حين أن الذكاء الاصطناعى التوليدي لا يزال يمثل شريحة صغيرة من الإجهاد الإجمالي للإنسانية على البيئة ، فإن أدوات برامج Gen-AI تتطلب طاقة أكثر إلى حد كبير لإنشاء وتشغيلها أكثر من نظرائها غير التنكسية. إن استخدام chatbot للمساعدة في البحث يساهم أكثر في أزمة المناخ أكثر من مجرد البحث في الويب في Google.
من الممكن أن يتم تخفيض مقدار الطاقة المطلوبة لتشغيل الأدوات – نهج جديدة مثل أحدث موارد طاقة SIP الثمينة من Deepseek بدلاً من أن تكون شركات AI الكبيرة أكثر اهتمامًا بتسريع التطوير من التوقف عن النظر في الأساليب الأقل ضررًا ل كوكب.
كيف نجعل الذكاء الاصطناعي أكثر حكمة وأخلاقية بدلاً من أذكى وأكثر قوة؟
–الدماغ المجرة
شكرا لك على سؤالك الحكيم ، زميله البشري. قد يكون هذا المأزق موضوعًا شائعًا للمناقشة بين أولئك الذين يقومون ببناء أدوات الذكاء الاصطناعي أكثر مما تتوقع. على سبيل المثال ، يحاول النهج “الدستوري” للأنثروبور أن يحاول كلود chatbot غرس الشعور بالقيم الأساسية في الجهاز.
يتتبع الارتباك في قلب سؤالك كيف نتحدث عن البرنامج. في الآونة الأخيرة ، أصدرت العديد من الشركات نماذج تركز على مقاربات “التفكير” و “سلسلة الفكرة” لأداء الأبحاث. وصف ما تفعله أدوات الذكاء الاصطناعى بالمصطلحات والعبارات البشرية يجعل الخط الفاصل بين الإنسان والآلة ضبابية غير ضرورية. أعني ، إذا كان النموذج يمكن أن يتسبب حقًا ولديه سلاسل من الأفكار ، فلماذا لا نتمكن من إرسال البرنامج إلى أسفل مسار التنوير الذاتي؟
لأنه لا يفكر. كلمات مثل التفكير والفكر العميق والتفاهم – تلك هي كلها مجرد طرق لوصف كيفية معالجة الخوارزمية المعلومات. عندما أتوقف عن أخلاقيات كيفية تدريب هذه النماذج والتأثير البيئي ، لا يعتمد موقفي على دمج الأنماط التنبؤية أو النص ، بل هو مجموع تجربتي الفردية ومعتقداتها الوثيقة.
الجوانب الأخلاقية لمخرجات الذكاء الاصطناعى ستعود دائمًا إلى مدخلاتنا البشرية. ما هي نوايا مطالبات المستخدم عند التفاعل مع chatbot؟ ماذا كانت التحيزات في بيانات التدريب؟ كيف قام Devs بتعليم الروبوت للرد على الاستفسارات المثيرة للجدل؟ بدلاً من التركيز على جعل الذكاء الاصطناعى نفسه أكثر حكمة ، فإن المهمة الحقيقية في متناول اليد هي زراعة ممارسات التطوير الأخلاقي وتفاعلات المستخدم.