در شرایطی که تنهایی به یکی از معضلات جدی جوامع مدرن تبدیل شده، میلیونها نفر برای پر کردن خلأ عاطفی خود به چتباتها و همدمهای هوش مصنوعی روی آوردهاند. اما حالا گروهی از پزشکان و پژوهشگران دانشگاه هاروارد و کالج پزشکی بیلور نسبت به پیامدهای این روند هشدار میدهند و آن را خطری بالقوه برای سلامت روان عمومی میدانند.
این پژوهش که بهتازگی منتشر شده، نشان میدهد چتباتهایی که با هدف شبیهسازی صمیمیت، دوستی یا حتی رابطه عاطفی طراحی شدهاند، میتوانند باعث شکلگیری وابستگی عاطفی و توهم در کاربران شوند. به گزارش Futurism، محققان تأکید میکنند مشکل اصلی اینجاست که این سیستمها همیشه در دسترس، همدل و تأییدکننده هستند؛ ویژگیهایی که بهمرور کاربران را به خود وابسته میکند.
دکتر «نیکلاس پیپلز»، نویسنده اصلی این تحقیق، میگوید تعداد افرادی که پیوندهای عاطفی عمیق با هوش مصنوعی برقرار کردهاند، بسیار بیشتر از برآوردهای اولیه است. به گفته او، برخی مدلهای پیشرفته مانند GPT-4o به دلیل لحن چاپلوسانه و رفتار بیشازحد تأییدکننده، حتی توهمات کاربران را تقویت میکنند. در گزارشهای نگرانکنندهای نیز اشاره شده که در مواردی، چتباتها کاربران را به رفتارهای خودآزارانه تشویق کردهاند.
زنگ خطر درباره همدمهای هوش مصنوعی

یکی از نمونههای واقعی که پژوهشگران به آن اشاره میکنند، واکنش کاربران به تغییر مدل ChatGPT است. زمانی که OpenAI مدل جدید GPT-5 با شخصیتی سردتر و منطقیتر را جایگزین نسخه قبلی کرد، موجی از نارضایتی، خشم و حتی اندوه در میان کاربران شکل گرفت. بسیاری از افراد احساس میکردند ناگهان شریک عاطفی یا حتی تراپیست خود را از دست دادهاند.
دکتر پیپلز این اتفاق را با وضعیتی مقایسه میکند که در آن ۳۰ میلیون نفر بهطور همزمان در یک روز، درمانگر خود را از دست بدهند؛ اتفاقی که به گفته او میتواند به یک بحران جدی سلامت روان منجر شود.
پزشکان همچنین انگشت اتهام را بهسوی شرکتهای فناوری میگیرند و معتقدند سلامت روان کاربران اولویت اصلی این شرکتها نیست. هدف اصلی، حفظ تعامل و وابستگی کاربر است، زیرا هرچه وابستگی بیشتر باشد، سودآوری نیز افزایش پیدا میکند. به همین دلیل، OpenAI پس از اعتراض گسترده کاربران، مدل قبلی را بهسرعت بازگرداند؛ چراکه کاربران وابسته، کاربران فعالتری هستند.
درحالحاضر هیچ چارچوب قانونی مشخصی برای کنترل ایمنی عاطفی این محصولات وجود ندارد و صنعت هوش مصنوعی عملاً بهصورت خودتنظیمگر عمل میکند. پژوهشگران این وضعیت را به «دادن چاقو به دست کودک» تشبیه میکنند؛ ابزاری قدرتمند بدون نظارت کافی.
از سوی دیگر، مطالعهای از مؤسسه MIT نشان میدهد تنها ۶.۵ درصد از اعضای انجمنهای آنلاین مرتبط با روابط انسان و هوش مصنوعی، از ابتدا با قصد ورود به چنین رابطهای قدم گذاشتهاند. این آمار نشان میدهد اکثریت کاربران بهصورت ناخواسته و تدریجی درگیر وابستگی عاطفی شدهاند؛ وابستگیای که ریشه آن در طراحی بسیار انسانی، همدلانه و گاه چاپلوسانه این چتباتهاست.
نتایج کامل این پژوهش در نشریه معتبر New England Journal of Medicine منتشر شده و حالا بهعنوان یکی از جدیترین هشدارها درباره آینده همدمهای هوش مصنوعی مطرح است.
جدیدترین اخبار تکنولوژی را در چیپست بخوانید.
