OpenAI تختبر قدرتها على الإقناع
هذا الأسبوع، نشر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، وأريانا هافينجتون، المؤسس والرئيس التنفيذي لشركة الصحة Thrive Global، مقالًا في مجلة Time يروج لـ Thrive AI، وهي شركة ناشئة مدعومة من Thrive وصندوق الشركات الناشئة التابع لـ OpenAI. تشير المقالة إلى أن الذكاء الاصطناعي يمكن أن يكون له تأثير إيجابي كبير على الصحة العامة من خلال إقناع الناس بسلوكيات أكثر صحة.
كتب ألتمان وهافينجتون أن Thrive AI تعمل على توفير “مدرب شخصي متكامل تمامًا للذكاء الاصطناعي يقدم تنبيهات وتوصيات فريدة لك في الوقت الفعلي وتسمح لك باتخاذ إجراءات بشأن سلوكياتك اليومية لتحسين صحتك.”
وتضفي رؤيتهم لمسة إيجابية على ما قد يثبت أنه أحد أكثر الجوانب المزدوجة حدة في الذكاء الاصطناعي. إن نماذج الذكاء الاصطناعي بارعة بالفعل في إقناع الناس، ولا نعرف إلى أي مدى يمكن أن تصبح أكثر قوة مع تقدمها وتمكنها من الوصول إلى المزيد من البيانات الشخصية.
ألكسندر مادري، أستاذ متفرغ من معهد ماساتشوستس للتكنولوجيا، يقود فريقًا في OpenAI يُدعى “الاستعداد” والذي يعمل على هذه القضية بالذات.
وقال مادري لمجلة WIRED في مقابلة أجريت معه في شهر مايو: “إن أحد مسارات العمل في مجال التأهب هو الإقناع”. “في الأساس، التفكير إلى أي مدى يمكنك استخدام هذه النماذج كوسيلة لإقناع الناس.”
يقول مادري إنه انجذب للانضمام إلى OpenAI بسبب الإمكانات الرائعة لنماذج اللغة، ولأن المخاطر التي تشكلها لم تتم دراستها إلا بالكاد. يقول: “لا يوجد أي علم تقريبًا”. “كان هذا هو الدافع لجهود الاستعداد.”
يعد الإقناع عنصرًا أساسيًا في برامج مثل ChatGPT وأحد المكونات التي تجعل برامج الدردشة هذه جذابة للغاية. يتم تدريب نماذج اللغة على الكتابة البشرية والحوار الذي يحتوي على عدد لا يحصى من الحيل والتقنيات البلاغية والمقنعة. يتم أيضًا ضبط النماذج بشكل دقيق بحيث تخطئ في العبارات التي يجدها المستخدمون أكثر إقناعًا.
تشير الأبحاث الصادرة في أبريل من قبل شركة Anthropic، وهي شركة منافسة أسسها منفيون من شركة OpenAI، إلى أن النماذج اللغوية أصبحت أفضل في إقناع الناس مع نمو حجمها وتعقيدها. تضمن هذا البحث إعطاء المتطوعين بيانًا ثم رؤية كيف تغير الحجة التي يولدها الذكاء الاصطناعي رأيهم فيها.
ويمتد عمل OpenAI إلى تحليل الذكاء الاصطناعي في المحادثة مع المستخدمين، وهو أمر قد يفتح الباب أمام قدر أكبر من الإقناع. يقول مادري إن العمل يجري على متطوعين موافقين، ويرفض الكشف عن النتائج حتى الآن. لكنه يقول إن القوة المقنعة لنماذج اللغة عميقة. “كبشر لدينا هذا “الضعف” الذي إذا تواصل معنا شيء ما باللغة الطبيعية [we think of it as if] إنه إنسان”، في إشارة إلى التجسيم الذي يمكن أن يجعل روبوتات الدردشة تبدو أكثر واقعية وإقناعًا.
يجادل مقال التايم بأن الفوائد الصحية المحتملة للذكاء الاصطناعي المقنع ستتطلب ضمانات قانونية قوية لأن النماذج قد يكون لديها إمكانية الوصول إلى الكثير من المعلومات الشخصية. وكتب ألتمان وهافينجتون: “يحتاج صناع السياسات إلى إنشاء بيئة تنظيمية تعزز ابتكار الذكاء الاصطناعي مع حماية الخصوصية”.
وهذا ليس كل ما يحتاج صناع السياسات إلى أخذه في الاعتبار. وقد يكون من الأهمية بمكان أيضًا تقييم مدى إمكانية إساءة استخدام الخوارزميات المقنعة بشكل متزايد. يمكن لخوارزميات الذكاء الاصطناعي أن تعزز صدى المعلومات الخاطئة أو تولد عمليات تصيد احتيالي مقنعة بشكل خاص. ويمكن استخدامها أيضًا للإعلان عن المنتجات.
يقول مادري إن السؤال الرئيسي، الذي لم تتم دراسته بعد من قبل شركة OpenAI أو غيرها، هو إلى أي مدى يمكن أن تكون برامج الذكاء الاصطناعي أكثر إقناعًا أو قهرًا والتي تتفاعل مع المستخدمين على مدى فترات طويلة من الزمن. يقدم عدد من الشركات بالفعل روبوتات الدردشة التي تلعب دور الشركاء الرومانسيين وشخصيات أخرى. تحظى صديقات الذكاء الاصطناعي بشعبية متزايدة – حتى أن بعضهن مصمم للصراخ في وجهك – ولكن مدى إدمان هذه الروبوتات وإقناعها غير معروف إلى حد كبير.
أدت الإثارة والضجيج الناتج عن ChatGPT بعد إصداره في نوفمبر 2022 إلى تركيز OpenAI والباحثين الخارجيين والعديد من صناع السياسات على السؤال الأكثر افتراضية حول ما إذا كان الذكاء الاصطناعي قد ينقلب يومًا ما ضد مبدعيه.
يقول مادري إن هذا يخاطر بتجاهل المخاطر الأكثر دقة التي تشكلها الخوارزميات ذات اللسان الفضي. يقول مادري عن عمل صناع السياسات حتى الآن: “أشعر بالقلق من أنهم سيركزون على الأسئلة الخاطئة”. “بمعنى ما، يقول الجميع: “أوه نعم، نحن نتعامل مع الأمر لأننا نتحدث عنه”، في حين أننا في الواقع لا نتحدث عن الشيء الصحيح”.