إليك طريقة جديدة لخسارة أي جدال عبر الإنترنت: اللجوء إلى الذكاء الاصطناعي


على مدى السنوات العشرين الماضية التي أمضيتها كصحفي، رأيت وكتبت عن عدد من الأشياء التي غيرت نظرتي للإنسانية بشكل لا رجعة فيه. لكن الأمر لم يكن حتى وقت قريب هو الشيء الذي جعلني أشعر بقصر الدائرة الكهربائية.

أنا أتحدث عن ظاهرة ربما تكون قد لاحظتها أيضًا: وهي الانجذاب إلى الذكاء الاصطناعي.

هناك احتمال كبير أنك رأيت شخصًا يستخدم مناشدة الذكاء الاصطناعي عبر الإنترنت، أو حتى سمعته بصوت عالٍ. إنها مغالطة منطقية يمكن تلخيصها في ثلاث كلمات: “لقد سألت ChatGPT.”

  • سألت ChatGPT لمساعدتي في اكتشاف مرضي الغامض.
  • سألت ChatGPT لإعطائي نصيحة حب قاسية، يعتقدون أنني بحاجة أكثر من غيرها للنمو كشخص.
  • لقد استخدمت ChatGPT لإنشاء روتين مخصص للبشرة.
  • قدم ChatGPT حجة أن القطيعة العلائقية من الله (أي اللعنة) ممكنة بالضرورة، بناءً على مبادئ منطقية وميتافيزيقية مجردة، أي الوسط المستبعد، دون مناشدة طبيعة العلاقات، أو الحب الحقيقي، أو الإرادة الحرة، أو الاحترام.
  • توجد العديد من الوكالات الحكومية حتى أن الحكومة لا تعرف عددها! [based entirely on an answer from Grok, which is screenshotted]

لا تستخدم جميع الأمثلة هذه الصيغة الدقيقة، على الرغم من أنها أبسط طريقة لتلخيص الظاهرة. قد يستخدم الأشخاص Google Gemini، أو Microsoft Copilot، أو صديقتهم في برنامج chatbot، على سبيل المثال. لكن العنصر المشترك هو وضع ثقة انعكاسية وغير مبررة في نظام تقني غير مصمم للقيام بالشيء الذي تطلب منه القيام به، ومن ثم توقع أن يشترك فيه الآخرون أيضًا.

إذا ظللت أعلق في المنتديات، فسيكون هذا هو الشيء الذي سأشعله

وفي كل مرة أرى هذا النداء للذكاء الاصطناعي، فكرتي الأولى هي نفسها: هل أنت غبي سخيف أو شيء من هذا؟ لبعض الوقت الآن، كانت عبارة “لقد طلبت ChatGPT” كافية لجعلي أستوعب الأمر – لم يعد لدي أي اهتمام بما قاله ذلك الشخص. لقد قمت بتصنيفها عقليًا جنبًا إلى جنب مع المغالطات المنطقية، كما تعلمون: رجل القش، وشخصية الإعلان، وجيش العدو، والاسكتلندي غير الحقيقي. إذا كنت لا أزال أعلق في المنتديات، فسيكون هذا هو الشيء الذي سأشعله. لكن الانجذاب إلى الذكاء الاصطناعي بدأ يحدث كثيرًا لدرجة أنني سأصر على أسناني وأحاول فهمه.

سأبدأ بالأبسط: مثال ” ماسك ” – المثال الأخير – هو رجل يعلن عن منتجه ويشارك في الدعاية في نفس الوقت. والبعض الآخر أكثر تعقيدًا.

في البداية، أجد هذه الأمثلة حزينة. في حالة المرض الغامض، يلجأ الكاتب إلى ChatGPT للحصول على نوع الاهتمام – والإجابات – التي لم يتمكن من الحصول عليها من الطبيب. في حالة نصيحة “الحب القاسي”، يقول السائل إنهم “مصدومون ومتفاجئون من دقة الإجابات”، على الرغم من أن الإجابات كلها هراء عام يمكنك الحصول عليه من أي برنامج إذاعي للاتصال، مباشرة إلى “تطبيقات المواعدة ليست هي المشكلة، بل خوفك من الضعف هو المشكلة.” في حالة روتين البشرة، ربما يكون الكاتب قد حصل على واحدة من مجلة نسائية – لا يوجد شيء مفصل بشكل خاص حول هذا الموضوع.

أما بالنسبة للحجة حول اللعنة: فالجحيم حقيقي وأنا هنا بالفعل.

يبدو نص ChatGPT واثقًا، والإجابات مفصلة. وهذا ليس مثل كونك على حق، لكنه يحتوي على الدلالات من كونها على حق

أنظمة مثل ChatGPT، كما يعلم أي شخص مطلع على نماذج اللغات الكبيرة، تتنبأ بالاستجابات المحتملة للمطالبات من خلال توليد تسلسلات من الكلمات بناءً على أنماط في مكتبة بيانات التدريب. هناك كمية هائلة من المعلومات التي أنشأها الإنسان على الإنترنت، وبالتالي فإن هذه الإجابات غالبا ما تكون صحيحة: اسأله “ما هي عاصمة كاليفورنيا”، على سبيل المثال، وسوف يجيب بـ سكرامنتو، بالإضافة إلى جملة أخرى غير ضرورية. (من بين اعتراضاتي البسيطة على ChatGPT: تبدو إجاباته وكأنها طالب في الصف السادس يحاول الوصول إلى الحد الأدنى من عدد الكلمات.) حتى بالنسبة لمزيد من الاستفسارات المفتوحة مثل تلك المذكورة أعلاه، يمكن لـ ChatGPT إنشاء إجابة تبدو معقولة بناءً على بيانات التدريب. تعتبر نصائح الحب والجلد عامة لأن عددًا لا يحصى من الكتاب عبر الإنترنت قدموا نصائح من هذا القبيل تمامًا.

المشكلة هي أن ChatGPT ليس كذلك جدير بالثقة. يبدو نص ChatGPT واثقًا، والإجابات مفصلة. وهذا ليس مثل كونك على حق، لكنه يحتوي على الدلالات من كونها على حق. ليس من الواضح دائمًا أن هذا غير صحيح، خاصة عندما يتعلق الأمر بالإجابات – كما هو الحال مع نصيحة الحب – حيث يمكن للسائل أن يعرض بسهولة. تأكيد التحيز حقيقي وصحيح وصديقي. لقد كتبت بالفعل عن أنواع المشكلات التي يواجهها الأشخاص عندما يثقون في نظام التنبؤ التلقائي بأسئلة واقعية معقدة. ومع ذلك، وعلى الرغم من تكرار ظهور هذه المشكلات، إلا أن الناس يستمرون في فعل ذلك بالضبط.

إن كيفية بناء الثقة مسألة شائكة. كصحفي، أحب أن أعرض عملي – أخبرك من قال لي ماذا ومتى، أو أظهر لك ما فعلته لمحاولة التأكد من صحة شيء ما. من خلال العفو الرئاسي المزيف، أوضحت لك المصادر الأولية التي استخدمتها حتى تتمكن من إجراء استعلام بنفسك.

لكن الثقة هي أيضًا أداة إرشادية يمكن إساءة استخدامها بسهولة. في حالات الاحتيال المالي، على سبيل المثال، قد يوحي وجود صندوق معين لرأس المال الاستثماري في جولة لصناديق رأس المال الاستثماري الأخرى بأن شخصًا ما قد قام بالفعل بالعناية الواجبة المطلوبة، مما يؤدي بهم إلى تخطي القيام بالعملية المكثفة بأنفسهم. يعتمد اللجوء إلى السلطة على الثقة باعتبارها أداة إرشادية – فهي إجراء عملي، وإن كان خاطئًا في بعض الأحيان، يمكن أن ينقذ العمل.

منذ متى استمعنا إلى قادة الصناعة يقولون إن الذكاء الاصطناعي سيكون قادرًا على التفكير قريبًا؟

الشخص الذي يسأل عن المرض الغامض يلجأ إلى الذكاء الاصطناعي لأن البشر ليس لديهم إجابات وهم يائسون. يبدو الأمر المتعلق بالعناية بالبشرة وكأنه كسل خالص. مع الشخص الذي يطلب النصيحة في الحب، أتساءل فقط كيف وصلوا إلى النقطة في حياتهم حيث لم يكن لديهم أي إنسان ليسألوه – كيف لم يكن لديهم صديق يشاهدهم وهم يتفاعلون مع أشخاص آخرين. فيما يتعلق بسؤال الجحيم، هناك نفحة من عبارة “لقد اعتبرت الآلة أن الإدانة منطقية”، وهو أمر سخيف محرج.

يختلف جاذبية الذكاء الاصطناعي عن قصص “لقد سألت ChatGPT” حول كيفية جعله يحسب حرف “r” في كلمة “الفراولة” – فهو لا يختبر حدود برنامج الدردشة الآلي أو يتفاعل معه بطريقة أخرى واعية ذاتيًا. . ربما هناك طريقتان لفهم ذلك. الأول هو “لقد سألت مربع الإجابة السحري وأخبرني”، بلهجة “حسنًا، قال أوراكل في دلفي…” والثاني هو، “لقد سألت ChatGPT ولا يمكن تحميلي المسؤولية إذا كان خطأً “.

والثاني كسول. الأول مثير للقلق.

يتقاسم سام ألتمان وإيلون ماسك، من بين آخرين، المسؤولية عن الاستئناف الموجه إلى الذكاء الاصطناعي. منذ متى استمعنا إلى قادة الصناعة يقولون إن الذكاء الاصطناعي سيكون قادرًا على التفكير قريبًا؟ أنه سوف يتفوق على البشر ويأخذ وظائفنا؟ هناك نوع من المنطق البقري الذي يلعب هنا: إيلون ماسك وسام ألتمان غنيان جدًا، لذلك لا بد أنهما أذكياء جدًا – فهما أغنى منك، وبالتالي فهما أكثر ذكاءً منك. ويخبرونك أن الذكاء الاصطناعي يمكنه التفكير. لماذا لا تصدقهم؟ وبالإضافة إلى ذلك، أليس العالم أكثر روعة إذا كانوا على حق؟

لسوء الحظ بالنسبة لجوجل، فإن ChatGPT عبارة عن كرة بلورية ذات مظهر أفضل

هناك أيضًا مكافأة كبيرة للاهتمام بجذب قصة الذكاء الاصطناعي؛ تعتبر قصة Kevin Roose التافهة لـ Bing chatbot مثالاً على ذلك. بالتأكيد، إنه أمر ساذج ومبتذل – لكن مشاهدة النقاد يفشلون في اختبار المرآة يميل إلى جذب انتباه الناس. (في الواقع، كتب روز لاحقًا قصة ثانية حيث سأل روبوتات الدردشة عن رأيهم فيه.) على وسائل التواصل الاجتماعي، هناك حافز لوضع جاذبية الذكاء الاصطناعي في مقدمة ومركز المشاركة؛ هناك طائفة كاملة من الأشخاص غريبي الأطوار المؤثرين في مجال الذكاء الاصطناعي والذين هم أكثر من سعداء بتعزيز هذه الأشياء. إذا قدمت مكافآت اجتماعية للسلوك الغبي، فسوف ينخرط الناس في سلوك غبي. هذه هي الطريقة التي تعمل البدع.

هناك شيء آخر وهو جوجل. بدأ بحث Google كدليل جيد على نحو غير معتاد على الإنترنت، ولكن لسنوات عديدة، شجعت Google على رؤيته ككرة بلورية توفر الإجابة الحقيقية الوحيدة عند الطلب. كان هذا هو الهدف من المقتطفات قبل ظهور الذكاء الاصطناعي التوليدي، والآن، أخذ تكامل إجابات الذكاء الاصطناعي عدة خطوات أخرى إلى الأمام.

لسوء الحظ بالنسبة لجوجل، فإن ChatGPT عبارة عن كرة بلورية ذات مظهر أفضل. لنفترض أنني أريد استبدال المطاط الموجود على مساحات الزجاج الأمامي. تظهر لي عبارة بحث Google عن “استبدال ممسحة الزجاج الأمامي المطاطية” مجموعة واسعة من الأشياء غير المرغوب فيها، بدءًا من نظرة عامة على الذكاء الاصطناعي. بجانبه يوجد فيديو على اليوتيوب. إذا قمت بالتمرير لأسفل أكثر، فهناك مقتطف؛ بجانبها صورة. يوجد أدناه عمليات بحث مقترحة، ثم المزيد من اقتراحات الفيديو، ثم إجابات منتدى Reddit. إنه مشغول وفوضوي.

الآن دعنا ننتقل إلى ChatGPT. السؤال “كيف يمكنني استبدال ممسحة الزجاج الأمامي المطاطية؟” يحصل لي على تخطيط أنظف: استجابة بالعناوين الفرعية والخطوات. ليس لدي أي رابط فوري للمصادر ولا توجد طريقة لتقييم ما إذا كنت أحصل على نصيحة جيدة أم لا، ولكن لدي إجابة واضحة وموثوقة على واجهة نظيفة. إذا كنت لا تعرف أو تهتم بكيفية عمل الأشياء، فإن ChatGPT يبدو أفضل.

اتضح أن المستقبل كان متوقعًا من قبل جان بودريار طوال الوقت

إن اللجوء إلى الذكاء الاصطناعي هو المثال المثالي لقانون آرثر كلارك: “لا يمكن تمييز أي تكنولوجيا متقدمة بما فيه الكفاية عن السحر”. التكنولوجيا وراء LLM متقدمة بما فيه الكفاية لأن الأشخاص الذين يستخدمونها لم يكلفوا أنفسهم عناء فهمها. وكانت النتيجة نوعًا جديدًا ومحبطًا تمامًا من القصص الإخبارية: يعتمد الشخص على الذكاء الاصطناعي التوليدي فقط للحصول على نتائج مختلقة. أجد أيضًا أنه من المحبط أنه بغض النظر عن عدد هذه الأشياء – سواء كانت عفوًا رئاسيًا مزيفًا، أو الاستشهادات الزائفة، أو السوابق القضائية المختلقة، أو الاقتباسات الملفقة من الأفلام – يبدو أنها لا تحدث أي تأثير. يا إلهي، حتى الغراء الموجود على البيتزا لم يتوقف “لقد طلبت ChatGPT.”

لا يبدو أن كون هذه الآلة مجرد هراء – بالمعنى الفلسفي – يزعج الكثير من السائلين. لا تستطيع شهادة LLM، بطبيعتها، تحديد ما إذا كان ما تقوله صحيحًا أم خطأ. (على الأقل الكاذب يعرف ما هي الحقيقة). ليس لديه إمكانية الوصول إلى العالم الفعلي، فقط إلى التمثيلات المكتوبة للعالم الذي “يراه” من خلال الرموز.

لذا فإن النداء إلى الذكاء الاصطناعي هو نداء إلى الدلالات من السلطة. يبدو ChatGPT واثقًا، حتى عندما لا ينبغي له ذلك، وإجاباته مفصلة، ​​حتى عندما تكون خاطئة. الواجهة نظيفة. ليس عليك اتخاذ قرار بشأن الرابط الذي تريد النقر عليه. أخبرك بعض الأثرياء أن هذا سيكون أكثر ذكاءً منك قريبًا. أ نيويورك تايمز المراسل يفعل هذا الشيء بالضبط. فلماذا تفكر على الإطلاق، عندما يكون الكمبيوتر قادرًا على القيام بذلك نيابةً عنك؟

لا أستطيع أن أحدد كم من هذا يمثل ثقة مبهجة وكم هو عدمية فاخرة خالصة. في بعض النواحي، فإن عبارة “سيخبرني الروبوت بالحقيقة” و”لن يقوم أحد بإصلاح أي شيء على الإطلاق، وجوجل مخطئ على أي حال، فلماذا لا نثق في الروبوت” ترقى إلى نفس الشيء: عدم الإيمان بالمسعى البشري، وازدراء الإنسان. المعرفة الإنسانية، وعدم القدرة على الثقة بأنفسنا. لا يسعني إلا أن أشعر أن هذا يحدث في مكان مظلم للغاية. أشخاص مهمون يتحدثون عن منع لقاح شلل الأطفال. يقوم سكان ولاية نيوجيرسي بتوجيه أشعة الليزر نحو الطائرات خلال فترة السفر الأكثر ازدحامًا خلال العام. كانت الانتخابات الرئاسية برمتها غارقة في نظريات المؤامرة. علاوة على ذلك، أليس الأمر أكثر متعة إذا كانت الكائنات الفضائية حقيقية، وهناك عصابة سرية تدير العالم، والذكاء الاصطناعي ذكي بالفعل؟

في هذا السياق، ربما يكون من السهل تصديق أن هناك صندوق إجابات سحريًا في الكمبيوتر، وهو موثوق تمامًا، تمامًا مثل صديقتنا القديمة العرافة في دلفي. إذا كنت تعتقد أن الكمبيوتر يتمتع بالمعرفة التي لا تشوبها شائبة، فأنت على استعداد لتصديق أي شيء. اتضح أن المستقبل كان يتنبأ به جان بودريار طوال الوقت: من يحتاج إلى الواقع عندما يكون لدينا دوال؟ ما هو الواقع الذي فعله لي على أي حال؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *