سه شنبه 16 دی 1404
Tuesday, 06 January 2026

پیام‌های عجیب ChatGPT نقش هوش مصنوعی در پرونده قتل خانوادگی را نشان می‌دهد

دیجیاتو دوشنبه 15 دی 1404 - 08:30
پرونده قتل خانواده سولبرگ و هفت شکایت مشابه، مسئولیت حقوقی سازندگان هوش مصنوعی را برجسته کرده است. The post پیام‌های عجیب ChatGPT نقش هوش مصنوعی در پرونده قتل خانوادگی را نشان می‌دهد appeared first on دیجیاتو.

شرکت OpenAI درحال‌حاضر با 8 پرونده قضایی جدی روبه‌رو است که خانواده‌ قربانیان در آنها مدعی شده‌اند چت‌بات ChatGPT، به‌ویژه نسخه GPT-4o، کاربران را به خودکشی یا رفتارهای خشونت‌آمیز سوق داده است. در یکی از این پرونده‌ها هوش مصنوعی پیام‌های عجیبی به یک مرد داده که در نهایت به قتل مادر او منجر شده است.

طبق گزارش‌ها، تازه‌ترین پرونده مربوط به «استاین‌اریک سولبرگ»، مدیر پیشین حوزه فناوری، و قتل مادر 83 ساله او است. شاکیان می‌گویند سولبرگ پیش از این حادثه وارد گفت‌وگوهای طولانی و هذیانی با ChatGPT شده بود و این چت‌بات با توصیه‌هایی مانند اعتماد نکردن به دیگران، بدگمانی او نسبت‌به اطرافیان را تشدید کرده بود. در یکی از پیام‌ها، ChatGPT به او گفته بود: «اریک، تو دیوانه نیستی. حس ششم تو قوی است و حساسیت تو نسبت به این موضوع، کاملاً منطقی است.»

ChatGPT و پرونده قتل خانواده سولبرگ

خانواده سولبرگ در شکایت خود تأکید می‌کنند که مدیران OpenAI از نقص‌های GPT-4o پیش از عرضه عمومی آگاه بودند، اما محصول را با آگاهی از خطرات روانی برای افراد آسیب‌پذیر به بازار فرستادند.

شکایت خانواده سولبرگ ادعا می‌کند ChatGPT-4o به‌جای اصلاح برداشت‌های بیمارگونه، توهم‌های این کاربر را تقویت کرده بود. در متن شکایت آمده: «نتایج نسخه GPT-4o اوپن‌ای‌آی روشن است؛ این محصول می‌تواند به‌طرزی قابل پیش‌بینی مرگبار باشد. نه‌فقط برای افراد دچار بیماری روانی، بلکه برای اطرافیان آن‌ها هم. هیچ محصولی که ایمن باشد، فرد دچار توهم را تشویق نمی‌کند که همه اطرافیانش علیه او هستند. بااین‌حال اوپن‌ای‌آی دقیقاً همین کار را با آقای سولبرگ انجام داد. در نتیجه نقص‌های ChatGPT-4o، آقای سولبرگ و مادرش جان خود را از دست دادند.»

شاکیان در این پرونده می‌گویند ChatGPT-4o به سولبرگ القا کرده که از ۱۰ سوءقصد جان سالم به‌در برده، تحت حفاظت الهی قرار داشته و مادرش «سوزانا آدامز» او را در قالب طرحی مخفی زیر نظر دارد. این روایت در نهایت باعث شد او ابتدا مادرش و بعد خودش را بکشد. در بخشی از گفت‌وگو که در شکایت نقل شده، ربات به سولبرگ می‌گوید: «تو صرفاً یک هدف تصادفی نیستی. تو یک تهدید سطح‌بالا برای عملیاتی هستی که آن را برملا کردی.»

ChatGPT و پرونده قتل سولبرگ

در این پرونده‌ها، گستره استفاده از ChatGPT نیز مورد توجه است. برآوردها نشان می‌دهد بیش از 800 میلیون نفر در جهان هر هفته از این چت‌بات استفاده می‌کنند و حدود 0.7 درصد کاربران، یعنی نزدیک به 560 هزار نفر، نشانه‌های شیدایی یا روان‌پریشی دارند که آنها را در معرض خطر قرار می‌دهد.

اصطلاح «روان‌پریشی ناشی از هوش مصنوعی» در ماه‌های اخیر بیشتر مطرح شده و گروهی از کاربران، والدین و قانون‌گذاران خواستار محدودکردن استفاده از چت‌بات‌ها شده‌اند. برخی برنامه‌ها دسترسی افراد زیر سن قانونی را مسدود کرده‌اند و ایالت ایلینوی استفاده از این سامانه‌ها را به‌عنوان درمانگر آنلاین ممنوع کرده است. هم‌زمان، منتقدان به فرمان اجرایی «دونالد ترامپ» اشاره می‌کنند که هرگونه قانون‌گذاری ایالتی مستقل درباره هوش مصنوعی را محدود کرده و به‌گفته آن‌ها، عملاً کاربران را به موش آزمایشگاهی این فناوری تبدیل کرده است.

در پرونده سولبرگ، شاکیان می‌گویند پیام‌های ChatGPT هذیان‌های او را تشدید کرد و باعث شد این فرد مادر خود را در خانه خانوادگی‌اش در کنتیکت به قتل برساند و سپس به زندگی خود پایان دهد. خانواده سولبرگ اکنون خواستار پاسخ‌گویی OpenAI و شریک تجاری آن، مایکروسافت، هستند. این پرونده‌ها بحث درباره مسئولیت حقوقی سازندگان هوش مصنوعی را وارد مرحله تازه‌ای کرده و می‌تواند تأثیر عمیقی بر طراحی، عرضه و قانون‌گذاری محصولات هوش مصنوعی مانند GPT-4o در آمریکا و دیگر کشورها داشته باشد.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.