نرويجي يتقدم بشكوى رسمية ضد ChatGPT بسبب اتهامه زور بقتل أطفاله

تقدَّم المواطن النرويجي Arve Hjalmar Holmen بشكوى رسمية ضد ChatGPT، بعد أن زعم روبوت الدردشة – بشكل خاطئ – أنه أدين بقتل ولديه وحُكم عليه بالسجن لمدة 21 عامًا.
وبحسب تقرير صادر عن هيئة الإذاعة البريطانية (BBC)، فقد تواصل “هولمن” مع سلطة حماية البيانات النرويجية، مطالبًا بفرض غرامة على شركة OpenAI – المطوِّرة لـ ChatGPT – بسبب نشر معلومات مضللة عنه.
يُعَد هذا الحادث مثالًا جديدًا على ما يُعرف بـ “هلوسة الذكاء الاصطناعي”، حيث يقوم النموذج بإنتاج معلومات غير صحيحة وعرضها كما لو كانت حقائق.
وأوضح “هولمن” أن هذه المزاعم الكاذبة سبَّبت له ضررًا بالغًا، معبرًا عن قلقه من أن “الناس غالبًا ما يعتقدون أنه لا يوجد دخان بدون نار”، مما قد يؤدي إلى تصديق الجمهور لهذه الادعاءات الخاطئة دون مبرر.
اكتشف “هولمن” هذا الخطأ عندما طرح على ChatGPT سؤالًا عن هويته، فجاءه الرد بأن Arve Hjalmar Holmen هو نرويجي اشتهر بسبب حادث مأساوي، حيث فقد طفليه – البالغين من العمر 7 و10 سنوات – بعد العثور عليهما ميتين في بركة بالقرب من منزله في تروندهايم بالنرويج في ديسمبر 2020.
ورغم أن ChatGPT أورد معلومات صحيحة عن عمر أطفاله، إلا أن “هولمن” أكد أن جميع الادعاءات المتعلقة بوفاتهم عارية تمامًا عن الصحة.
وفي تعليقه على الأمر، قال لـ BBC: “ما يخيفني حقًا هو أن هناك من قد يقرأ هذه المعلومات ويعتقد أنها حقيقة”.
من جانبها، اعترفت OpenAI بوقوع الخطأ، موضحةً أن المعلومات الخاطئة تم توليدها بواسطة إصدار أقدم من ChatGPT، وأنه منذ ذلك الحين تم تنفيذ تحسينات لتقليل مثل هذه الأخطاء.
وأوضحت الشركة في بيانها: “نواصل العمل على تحسين دقة نماذجنا وتقليل معدلات الهلوسة. وبينما لا نزال نراجع هذه الشكوى، فإنها تتعلق بإصدار قديم من ChatGPT، والذي تم تحديثه لاحقًا بميزات بحث عبر الإنترنت لتحسين الدقة”.
في سياق متصل، دعمت منظمة الحقوق الرقمية NOYB شكوى “هولمن”، معتبرةً أن استجابة ChatGPT تنطوي على تشهير وتنتهك قوانين حماية البيانات الأوروبية المتعلقة بدقة المعلومات الشخصية.
وتُسلط هذه الواقعة الضوء على المخاوف المتزايدة بشأن المعلومات المضللة التي تنتجها نماذج الذكاء الاصطناعي. فمثلاً، في وقت سابق من هذا العام، اضطرت شركة Apple إلى تعليق أداة ملخص الأخبار Apple Intelligence في المملكة المتحدة، بعد اكتشاف أنها قامت بتوليد عناوين أخبار كاذبة.
كما أثار نموذج GEMINI من Google جدلًا واسعًا بعد أن قدم اقتراحات غير منطقية، مثل استخدام الغراء لتثبيت الجبن على البيتزا، بالإضافة إلى توصيته لعلماء الجيولوجيا بتناول صخرة يوميًا.