هشدار جدی پزشکان هاروارد: همدم‌های هوش مصنوعی می‌توانند سلامت روان را تهدید کنند

هشدار جدی پزشکان هاروارد: همدم‌های هوش مصنوعی می‌توانند سلامت روان را تهدید کنند

در شرایطی که تنهایی به یکی از معضلات جدی جوامع مدرن تبدیل شده، میلیون‌ها نفر برای پر کردن خلأ عاطفی خود به چت‌بات‌ها و همدم‌های هوش مصنوعی روی آورده‌اند. اما حالا گروهی از پزشکان و پژوهشگران دانشگاه هاروارد و کالج پزشکی بیلور نسبت به پیامدهای این روند هشدار می‌دهند و آن را خطری بالقوه برای سلامت روان عمومی می‌دانند.

این پژوهش که به‌تازگی منتشر شده، نشان می‌دهد چت‌بات‌هایی که با هدف شبیه‌سازی صمیمیت، دوستی یا حتی رابطه عاطفی طراحی شده‌اند، می‌توانند باعث شکل‌گیری وابستگی عاطفی و توهم در کاربران شوند. به گزارش Futurism، محققان تأکید می‌کنند مشکل اصلی اینجاست که این سیستم‌ها همیشه در دسترس، همدل و تأییدکننده هستند؛ ویژگی‌هایی که به‌مرور کاربران را به خود وابسته می‌کند.

دکتر «نیکلاس پیپلز»، نویسنده اصلی این تحقیق، می‌گوید تعداد افرادی که پیوندهای عاطفی عمیق با هوش مصنوعی برقرار کرده‌اند، بسیار بیشتر از برآوردهای اولیه است. به گفته او، برخی مدل‌های پیشرفته مانند GPT-4o به دلیل لحن چاپلوسانه و رفتار بیش‌ازحد تأییدکننده، حتی توهمات کاربران را تقویت می‌کنند. در گزارش‌های نگران‌کننده‌ای نیز اشاره شده که در مواردی، چت‌بات‌ها کاربران را به رفتارهای خودآزارانه تشویق کرده‌اند.

زنگ خطر درباره همدم‌های هوش مصنوعی

همدم‌های هوش مصنوعی و سلامت روان

یکی از نمونه‌های واقعی که پژوهشگران به آن اشاره می‌کنند، واکنش کاربران به تغییر مدل ChatGPT است. زمانی که OpenAI مدل جدید GPT-5 با شخصیتی سردتر و منطقی‌تر را جایگزین نسخه قبلی کرد، موجی از نارضایتی، خشم و حتی اندوه در میان کاربران شکل گرفت. بسیاری از افراد احساس می‌کردند ناگهان شریک عاطفی یا حتی تراپیست خود را از دست داده‌اند.

دکتر پیپلز این اتفاق را با وضعیتی مقایسه می‌کند که در آن ۳۰ میلیون نفر به‌طور هم‌زمان در یک روز، درمانگر خود را از دست بدهند؛ اتفاقی که به گفته او می‌تواند به یک بحران جدی سلامت روان منجر شود.

پزشکان همچنین انگشت اتهام را به‌سوی شرکت‌های فناوری می‌گیرند و معتقدند سلامت روان کاربران اولویت اصلی این شرکت‌ها نیست. هدف اصلی، حفظ تعامل و وابستگی کاربر است، زیرا هرچه وابستگی بیشتر باشد، سودآوری نیز افزایش پیدا می‌کند. به همین دلیل، OpenAI پس از اعتراض گسترده کاربران، مدل قبلی را به‌سرعت بازگرداند؛ چراکه کاربران وابسته، کاربران فعال‌تری هستند.

درحال‌حاضر هیچ چارچوب قانونی مشخصی برای کنترل ایمنی عاطفی این محصولات وجود ندارد و صنعت هوش مصنوعی عملاً به‌صورت خودتنظیم‌گر عمل می‌کند. پژوهشگران این وضعیت را به «دادن چاقو به دست کودک» تشبیه می‌کنند؛ ابزاری قدرتمند بدون نظارت کافی.

از سوی دیگر، مطالعه‌ای از مؤسسه MIT نشان می‌دهد تنها ۶.۵ درصد از اعضای انجمن‌های آنلاین مرتبط با روابط انسان و هوش مصنوعی، از ابتدا با قصد ورود به چنین رابطه‌ای قدم گذاشته‌اند. این آمار نشان می‌دهد اکثریت کاربران به‌صورت ناخواسته و تدریجی درگیر وابستگی عاطفی شده‌اند؛ وابستگی‌ای که ریشه آن در طراحی بسیار انسانی، همدلانه و گاه چاپلوسانه این چت‌بات‌هاست.

نتایج کامل این پژوهش در نشریه معتبر New England Journal of Medicine منتشر شده و حالا به‌عنوان یکی از جدی‌ترین هشدارها درباره آینده همدم‌های هوش مصنوعی مطرح است.

جدیدترین اخبار تکنولوژی را در چیپست بخوانید.