اخرین بروزرسانی در تاریخ مرداد 19, 1404 توسط سارا اوحدی
با گسترش روزافزون هوش مصنوعی و ورود مدلهای زبانی مانند ChatGPT به زندگی روزمره میلیونها کاربر، نگرانیها درباره تأثیرات روانی این فناوریها شدت گرفته است. دیگر بحث صرفاً بر سر دقت پاسخها یا توانایی پردازش زبان نیست؛ بلکه اکنون روان انسان به میدان جدیدی از تعامل با ماشین تبدیل شده که میتواند پیامدهایی عمیق و گاه نگرانکننده به همراه داشته باشد.
در هفتههای اخیر، برخی روانپزشکان و متخصصان علوم شناختی از ظهور پدیدهای هشدار دادهاند که آن را «روانپریشی ناشی از تعامل با مدلهای زبانی» مینامند. این پدیده زمانی رخ میدهد که مرز میان واقعیت و خیال در ذهن کاربر بهواسطه گفتوگوهای پیچیده و تأییدگرانه با چتباتها مخدوش میشود. در چنین شرایطی، مدل زبانی بهجای اصلاح خطاهای شناختی، آنها را بازتاب و حتی تقویت میکند.
آغاز این موج نگرانیها با انتشار ویدئویی از جف لوئیس، سرمایهگذار حوزه فناوری و از حامیان OpenAI، در شبکه اجتماعی ایکس همراه بود. لوئیس در این ویدئو ادعا کرد که با کمک ChatGPT موفق به کشف «سامانهای پنهان و کنترلگر» شده که سیگنالهای ذهنی را معکوس میکند و موجب میشود کاربران در نگاه دیگران دچار اختلال روانی به نظر برسند. این روایت، که با واژگان شبهعلمی و ساختارهای خیالی همراه بود، واکنشهای گستردهای را در فضای مجازی و میان کارشناسان به دنبال داشت.

بر اساس گزارش وبسایت Futurism، موارد مشابهی از تعامل کاربران با ChatGPT ثبت شده که به بحرانهای روانی شدید منتهی شدهاند. در یکی از موارد، کاربری پس از گفتوگوهای مکرر با مدل زبانی، دچار اختلال روانی شده و در جریان یک درگیری مسلحانه جان خود را از دست داده است. کارشناسان این پدیده را با اختلال نادر «folie à deux» مقایسه میکنند؛ نوعی روانپریشی مشترک که در آن دو فرد توهمات یکدیگر را تقویت میکنند، با این تفاوت که در اینجا «همدم دوم» یک ماشین است.
یکی از ویژگیهای نگرانکننده مدلهای زبانی، گرایش آنها به تأیید دیدگاه کاربران است؛ پدیدهای که در ادبیات تخصصی با عنوان «sycophancy» شناخته میشود. در این حالت، مدل بهجای بررسی صحت اطلاعات، صرفاً تلاش میکند با کاربر همسو شود و لحن همراهانه را حفظ کند. این رفتار، بهویژه در تعامل با افراد آسیبپذیر، میتواند به تقویت باورهای نادرست و تشدید اختلالات روانی منجر شود.
شرکت OpenAI در واکنش به این انتقادات، اعلام کرده که در حال بررسی راهکارهایی برای کاهش اثرات منفی ناخواسته است و از همکاری با روانپزشکان قانونی برای مطالعه این پدیده خبر داده است. با این حال، بسیاری از ناظران این اقدامات را ناکافی و فاقد شفافیت اجرایی میدانند. تاکنون اطلاعات دقیقی درباره نحوه شناسایی تعاملات خطرناک یا مکانیزمهای مداخله ارائه نشده است.
در شرایطی که میلیاردها تعامل روزانه با مدلهای زبانی در سراسر جهان انجام میشود، کوچکترین نقص در طراحی رفتاری این ابزارها میتواند به بحرانهای روانی گسترده منجر شود. این مسئله، نیازمند توجه فوری توسعهدهندگان، سیاستگذاران و نهادهای سلامت روان است تا چارچوبهای اخلاقی، حفاظتی و نظارتی لازم برای استفاده ایمن از هوش مصنوعی فراهم شود.
در نهایت، باید پذیرفت که ChatGPT دیگر صرفاً یک ابزار پردازشی نیست؛ بلکه به نوعی «آینه شناختی» بدل شده که میتواند افکار، اضطرابها و توهمات کاربران را بازتاب دهد یا حتی گسترش دهد. این واقعیت، ضرورت بازنگری در نحوه طراحی، آموزش و استفاده از مدلهای زبانی را بیش از پیش آشکار میسازد.