رفعت شركة OpenAI دعوى قضائية ضد التشهير بعد أن افتعلت ChatGPT اتهامات قانونية ضد مضيف إذاعي
تعرضت شركة OpenAI لما يبدو أنه أول دعوى تشهير تستجيب لمعلومات خاطئة تم إنشاؤها بواسطة ChatGPT.
قام المضيف الإذاعي في جورجيا ، مارك والترز ، بمقاضاة الشركة بعد أن ذكرت ChatGPT أن والترز قد اتُهم بالاحتيال واختلاس أموال من منظمة غير ربحية. قام النظام بإنشاء المعلومات استجابة لطلب من طرف ثالث ، وهو صحفي يدعى فريد رييل. تم رفع قضية والترز في الخامس من يونيو في المحكمة العليا في مقاطعة غوينيت بجورجيا وهو يسعى للحصول على تعويضات مالية غير محددة من شركة أوبن إيه آي.
القضية جديرة بالملاحظة نظرًا للشكاوى المنتشرة حول المعلومات الخاطئة التي تم إنشاؤها بواسطة ChatGPT وروبوتات الدردشة الأخرى. لا تملك هذه الأنظمة طريقة موثوقة للتمييز بين الحقيقة والخيال ، وعندما يُطلب منها معلومات – خاصة إذا طُلب منها تأكيد شيء يقترح السائل أنه صحيح – فإنها كثيرًا ما تخترع التواريخ والحقائق والأرقام.
“سمعت عن هذا الموقع الجديد ، الذي افترضت خطأً أنه محرك بحث فائق”.
عادة ، لا تفعل هذه التلفيقات سوى تضليل المستخدمين أو إضاعة وقتهم. لكن بدأت تظهر حالات مثل هذه الأخطاء التي تسبب الضرر. ومن بين هؤلاء أستاذ يهدد بفشل فصله بعد أن زعم موقع ChatGPT أن طلابه استخدموا الذكاء الاصطناعي لكتابة مقالاتهم ، ومحامي يواجه عقوبات محتملة بعد استخدام ChatGPT للبحث في قضايا قانونية مزيفة. قال المحامي المعني للقاضي مؤخرًا: “سمعت عن هذا الموقع الجديد ، الذي افترضته خطأً أنه محرك بحث فائق”.
يتضمن OpenAI إخلاء مسؤولية صغيرًا على الصفحة الرئيسية لـ ChatGPT يحذر من أن النظام “قد ينتج أحيانًا معلومات غير صحيحة” ، لكن الشركة تقدم أيضًا ChatGPT كمصدر للبيانات الموثوقة ، واصفة النظام في نسخة الإعلان على أنه وسيلة “للحصول على إجابات” و “تعلم شيء جديد. ” قال الرئيس التنفيذي لشركة OpenAI ، Sam Altman ، في مناسبات عديدة ، إنه يفضل تعلم معلومات جديدة من ChatGPT بدلاً من الكتب.
ومع ذلك ، ليس من الواضح ما إذا كانت هناك أسبقية قانونية أم لا لتحميل الشركة مسؤولية أنظمة الذكاء الاصطناعي التي تولد معلومات خاطئة أو تشهيرية ، أو ما إذا كانت هذه الحالة بالذات لها مزايا جوهرية.
تقليديا في الولايات المتحدة ، تحمي المادة 230 شركات الإنترنت من المسؤولية القانونية عن المعلومات التي ينتجها طرف ثالث وتستضيفها على منصاتها. من غير المعروف ما إذا كانت وسائل الحماية هذه تنطبق على أنظمة الذكاء الاصطناعي ، والتي لا ترتبط ببساطة بمصادر البيانات ولكنها تنشئ المعلومات من جديد (وهي عملية تؤدي أيضًا إلى إنشاء بيانات خاطئة).
يمكن أن تختبر دعوى التشهير التي رفعها والترز في جورجيا هذا الإطار. تشير القضية إلى أن الصحفي فريد ريهل طلب من ChatGPT تلخيص قضية محكمة فيدرالية حقيقية من خلال ربطها بملف PDF على الإنترنت. استجابت ChatGPT من خلال إنشاء ملخص خاطئ للقضية كان مفصلاً ومقنعًا ولكنه خاطئ من عدة نواحٍ. احتوى ملخص ChatGPT على بعض المعلومات الصحيحة من الناحية الواقعية ولكنه احتوى أيضًا على ادعاءات كاذبة ضد والترز. وقالت إنه يعتقد أن والترز اختلس أموالا من مؤسسة غير ربحية لحقوق السلاح تسمى مؤسسة التعديل الثاني “بما يزيد عن 5.000.000 دولار”. لم يتم اتهام والترز بهذا.
لم ينشر Riehl مطلقًا المعلومات الخاطئة التي تم إنشاؤها بواسطة ChatGPT ولكنه فحص التفاصيل مع طرف آخر. ليس من الواضح من ملفات القضية كيف اكتشف والترز هذه المعلومات الخاطئة.
والجدير بالذكر أنه على الرغم من الامتثال لطلب Riehl لتلخيص ملف PDF ، فإن ChatGPT غير قادر في الواقع على الوصول إلى هذه البيانات الخارجية دون استخدام مكونات إضافية إضافية. إن عدم قدرة النظام على تنبيه Riehl إلى هذه الحقيقة هو مثال على قدرته على تضليل المستخدمين. (على الرغم من ، متى الحافة اختبرت النظام اليوم على نفس المهمة ، استجاب بشكل واضح وغني بالمعلومات ، قائلاً: “أنا آسف ، ولكن كنموذج يستند إلى نص AI ، ليس لدي القدرة على الوصول أو فتح ملفات PDF محددة أو مستندات خارجية أخرى . “)
أشار يوجين فولوخ ، أستاذ القانون الذي كتب عن المسؤولية القانونية لأنظمة الذكاء الاصطناعي ، في إحدى مشاركات المدونة إلى أنه على الرغم من الاعتقاد بأن مثل هذه الادعاءات التشهير [against AI companies] من حيث المبدأ قابلة للتطبيق من الناحية القانونية ، “يجب أن يكون من الصعب الحفاظ على هذه الدعوى الخاصة”. يلاحظ فولوخ أن والترز لم يخطر أوبن إيه آي بهذه التصريحات الكاذبة ، مما منحهم فرصة لإزالتها ، وأنه لم تكن هناك أضرار فعلية نتيجة لإخراج ChatGPT. يقول فولوخ: “على أي حال ، سيكون من المثير للاهتمام أن نرى ما يحدث هنا في النهاية”.
لقد تواصلنا مع OpenAI للتعليق وسنقوم بتحديث هذه القصة إذا سمعنا مرة أخرى.