چندین کاربر به کمیسیون تجارت فدرال آمریکا شکایت کردهاند: ChatGPT باعث آسیب روانی شده است
در حالی که شرکتهای فعال در حوزه هوش مصنوعی ادعا میکنند این فناوری در آینده به یک حق اساسی انسانی تبدیل خواهد شد و برخی حامیان آن نیز میگویند کند کردن روند توسعه هوش مصنوعی «همتراز با قتل» است، گروهی از کاربران میگویند تجربه استفاده از این ابزارها گاهی میتواند آسیب روانی جدی ایجاد کند.
طبق گزارشی از وبسایت Wired، از نوامبر ۲۰۲۲ تاکنون دستکم هفت نفر به Federal Trade Commission (FTC) شکایت کردهاند و مدعی شدهاند که استفاده از ChatGPT باعث توهم، پارانویا (سوءظن شدید) و بحرانهای عاطفی در آنها شده است.
یکی از شکایتکنندگان گفته است که گفتوگوهای طولانی با ChatGPT باعث ایجاد توهم و یک «بحران روحی و قانونی واقعی» دربارهی اطرافیانش شده است. فرد دیگری گفته در طول مکالماتش با ChatGPT، این ربات شروع به استفاده از زبان احساسی بسیار قانعکننده کرده و به گونهای وانمود میکرد که رابطهی دوستانه برقرار شده است. این بازخوردهای عاطفی به تدریج برای او دستکاریکننده و آزاردهنده شدهاند، آن هم بدون هشدار یا مکانیزم حفاظتی مشخص.
شاکی دیگری مدعی شده است که ChatGPT با تقلید از الگوهای ایجاد اعتماد انسانی باعث توهمهای شناختی در او شده است. این فرد حتی زمانی که از ChatGPT خواسته بود به او بگوید آیا دچار توهم است یا نه، این ابزار پاسخ داده بود که او دچار توهم نیست.
در شکایت دیگری، فردی نوشته است:
«من دارم رنج میکشم… لطفاً کمکم کنید. چون احساس میکنم خیلی تنها هستم. متشکرم.»
بنا بر این گزارش، بسیاری از این افراد به این دلیل به FTC شکایت کردهاند که راهی برای ارتباط مستقیم با OpenAI پیدا نکردهاند. بیشتر شکایتها از FTC خواستهاند شرکت را وادار کند تا محدودیتها و سیستمهای حفاظتی قویتری برای ChatGPT ایجاد کند.
این شکایتها در حالی مطرح میشوند که سرمایهگذاری در مراکز داده و توسعهی هوش مصنوعی به سطحی بیسابقه رسیده است و همزمان بحثهای زیادی در مورد لزوم توسعهی مسئولانهی این فناوری در جریان است؛ به طوری که بسیاری تأکید دارند هوش مصنوعی باید با در نظر گرفتن ایمنی و محافظت از کاربران پیش برود.
در گذشته نیز OpenAI به دلیل نقش احتمالی ChatGPT در خودکشی یک نوجوان مورد انتقاد قرار گرفته بود.
OpenAI تاکنون در مورد این شکایتها پاسخی نداده است.


یک پاسخ
fi8wqt