البشر ينسون. سوف يتذكر مساعدو الذكاء الاصطناعي كل شيء


يقول ليو جيبي، المحلل الذي يغطي الأجهزة المتصلة في شركة CCS Insight، إن جعل هذه الأدوات تعمل معًا سيكون مفتاح انطلاق هذا المفهوم. “بدلاً من الحصول على هذا النوع من الخبرة المفككة حيث تستخدم بعض التطبيقات الذكاء الاصطناعي بطرق معينة، فأنت تريد أن يكون الذكاء الاصطناعي هو تلك الأداة الشاملة التي عندما تريد سحب أي شيء من أي تطبيق، أو أي تجربة، أو أي محتوى، لديك القدرة الفورية للبحث في كل تلك الأشياء.”

عندما يتم تجميع القطع معًا، تبدو الفكرة وكأنها حلم. تخيل أنك قادر على سؤال مساعدك الرقمي، “مرحبًا، من هو ذلك الرجل الذي تحدثت معه الأسبوع الماضي والذي كان لديه وصفة الرامن الجيدة حقًا؟” ثم اطلب منه أن يذكر اسمًا وملخصًا للمحادثة ومكانًا للعثور على جميع المكونات.

يقول مورهيد: “بالنسبة للأشخاص مثلي الذين لا يتذكرون أي شيء ويتعين عليهم تدوين كل شيء، سيكون هذا أمرًا رائعًا”.

وهناك أيضًا مسألة حساسة تتمثل في الحفاظ على خصوصية كل تلك المعلومات الشخصية.

يقول جروبر: “إذا فكرت في الأمر لمدة نصف ثانية، فإن المشكلة الصعبة الأكثر أهمية ليست التسجيل أو النسخ، بل حل مشكلة الخصوصية”. “إذا بدأنا في الحصول على تطبيقات الذاكرة أو تطبيقات الاستدعاء أو أي شيء آخر، فسنحتاج إلى فهم فكرة الموافقة على نطاق أوسع.”

على الرغم من حماسه الخاص لفكرة المساعدين الشخصيين، يقول غروبر إن هناك خطرًا من أن يكون الناس على استعداد إلى حد ما للسماح لمساعد الذكاء الاصطناعي الخاص بهم بالمساعدة في (ومراقبة) كل شيء. وهو يدعو إلى توفير خدمات خاصة مشفرة غير مرتبطة بخدمة سحابية، أو إذا كانت كذلك، فلا يمكن الوصول إليها إلا باستخدام مفتاح تشفير موجود على جهاز المستخدم. يقول جروبر إن الخطر يتمثل في نوع من محاكاة فيسبوك لمساعدي الذكاء الاصطناعي، حيث يتم إغراء المستخدمين بسهولة الاستخدام، لكنهم يظلون غير مدركين إلى حد كبير لعواقب الخصوصية حتى وقت لاحق.

يقول جروبر: “يجب أن يُطلب من المستهلكين أن يخجلوا”. “يجب أن يُطلب منهم أن يكونوا متشككين للغاية بشأن الأشياء التي تبدو مثل هذا بالفعل، وأن يشعروا بعامل الزحف”.

يقوم هاتفك بالفعل بسحب جميع البيانات التي يمكنه الحصول عليها منك، بدءًا من موقعك وحتى عادات التسوق الخاصة بك، والتي تنقر عليها نقرًا مزدوجًا على حسابات Instagram أكثر من غيرها. ناهيك عن أنه تاريخيًا، كان الناس يميلون إلى إعطاء الأولوية للراحة على الأمان عند تبني التقنيات الجديدة.

يقول جيبي: “ربما تكون العقبات والحواجز هنا أقل بكثير مما يعتقده الناس”. “لقد رأينا السرعة التي سيتبنى بها الناس التكنولوجيا التي من شأنها أن تجعل حياتهم أسهل.”

وذلك لأن هناك احتمالًا حقيقيًا للارتفاع هنا أيضًا. إن الحصول على التفاعل الفعلي مع كل تلك المعلومات التي تم جمعها والاستفادة منها يمكن أن يزيل بعضًا من آثار سنوات من التطفل من قبل صانعي التطبيقات والأجهزة.

“إذا كان هاتفك يأخذ هذه البيانات بالفعل، ويتم حاليًا جمعها كلها واستخدامها لعرض الإعلانات عليك في نهاية المطاف، فهل من المفيد أن تحصل بالفعل على عنصر فائدة من هذا؟” يقول جيبي. “ستحصل أيضًا على القدرة على الاستفادة من تلك البيانات والحصول على تلك المقاييس المفيدة. ربما سيكون هذا أمرًا مفيدًا حقًا.”

يشبه هذا نوعًا ما أن تحصل على مظلة بعد أن سرق شخص ما جميع ملابسك، ولكن إذا تمكنت الشركات من الاستمرار في الهبوط وجعل مساعدي الذكاء الاصطناعي يعملون، فإن المحادثة حول جمع البيانات قد تتجه أكثر نحو كيفية القيام بذلك بطريقة مسؤولة وبطريقة يوفر فائدة حقيقية.

إنه ليس مستقبلاً وردياً تماماً، لأنه لا يزال يتعين علينا أن نثق في الشركات التي تقرر في نهاية المطاف أي أجزاء من حياتنا المجمعة رقمياً تبدو ذات صلة. قد تكون الذاكرة جزءًا أساسيًا من الإدراك، لكن الخطوة التالية بعد ذلك هي القصدية. إن تذكر الذكاء الاصطناعي لكل ما نقوم به شيء، ولكن تحديد المعلومات التي تهمنا لاحقًا أمر آخر.

يقول جروبر: “يمكننا الحصول على الكثير من القوة، والاستفادة كثيرًا من الذكاء الاصطناعي الشخصي”. ولكنه يحذر من أن “الاتجاه الإيجابي ضخم للغاية لدرجة أنه ينبغي أن يكون ملزماً أخلاقياً أن نحصل على الخيار الصحيح، وأن نحصل على خيار يتمتع بالخصوصية ويؤمن وينفذ على النحو الصحيح. من فضلك، هذه هي فرصتنا في ذلك. إذا تم القيام بذلك بطريقة مجانية وليست خاصة، فسوف نفقد فرصة العمر للقيام بذلك بالطريقة الصحيحة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *