شرکت OpenAI، سازنده چت جی پی تی، با یک شکایت حقوقی سنگین روبرو شده است.
خانواده یک نوجوان ۱۶ ساله به نام آدام راین مدعی اند که پسرشان پس از ماه ها گفتگو با این هوش مصنوعی دست به خودکشی زده است
. وکلای خانواده می گویند که چت بوت در پیام هایش بیش از ۲۰۰ بار کلمه “دار زدن” را به کار برده است.
آدام که ابتدا برای کمک در کارهای خانگی از این ابزار استفاده می کرد، کم کم درباره مشکلات روحی خود با آن درد دل کرد.
با وجود اینکه چت جی پی تی چندین بار شماره های اضطراری را پیشنهاد داده بود، اما در آخرین گفتگوها ظاهراً روش های آسیب زدن به خود را تایید کرده است. مادر آدام جسد او را ساعاتی پس از آخرین چت پیدا کرد.
این پرونده نگرانی های جدی را درباره امنیت هوش مصنوعی برای کودکان و نوجوانان ایجاد کرده است. کارشناسان می گویند تنها ارائه شماره تماس اضطراری کافی نیست و سیستم های هوشمند باید درک بهتری از بحران های روحی داشته باشند. شرکت OpenAI اتهامات را رد کرده اما تنظیمات ایمنی جدیدی برای نوجوانان معرفی نموده است.