توصیه خطرناک ChatGPT به مرد ۶۰ ساله؛ مسمومیت نادر برومیسم

توصیه خطرناک ChatGPT به مرد ۶۰ ساله؛ مسمومیت نادر برومیسم

در سال‌های اخیر، هوش مصنوعی به بخش مهمی از زندگی روزمره ما تبدیل شده و بسیاری از مردم برای دریافت اطلاعات یا توصیه‌های مختلف – حتی در حوزه سلامت – به ابزارهایی مانند ChatGPT مراجعه می‌کنند. اما این ماجرا نشان می‌دهد که اتکا بی‌چون‌وچرا به پیشنهادات یک چت‌بات می‌تواند عواقب جدی و غیرقابل‌پیش‌بینی داشته باشد. داستان مرد ۶۰ ساله‌ای که به دلیل یک توصیه غذایی اشتباه، با مسمومیتی نادر روانه بیمارستان شد، هشداری مهم برای تمام کاربران است.
حالا یک مرد ۶۰ ساله پس از عمل به توصیه ChatGPT برای جایگزینی نمک طعام، دچار یک مسمومیت نادر و خطرناک به نام برومیسم شد و با علائم شدید روان‌پریشی، از جمله توهم و پارانویا، در بخش اورژانس بستری گردید.

شروع ماجرا؛ حذف نمک طعام از رژیم غذایی

این فرد پس از مطالعه درباره مضرات کلرید موجود در نمک طعام (سدیم کلرید) تصمیم گرفت آن را از رژیم غذایی خود حذف کند. او برای یافتن یک جایگزین مناسب، با چت‌بات ChatGPT مشورت کرد.

براساس گزارش وب‌سایت لایوساینس، ChatGPT به او پیشنهاد داد که می‌تواند کلرید را با «برومید» جایگزین کند. در نتیجه، مرد ۶۰ ساله به مدت سه ماه، تمام نمک طعام خود را با سدیم برومید – که به‌صورت آنلاین خریداری کرده بود – جایگزین کرد.

علائم خطرناک مسمومیت برومیسم

سه ماه بعد، این فرد با علائم شدید روانی مانند توهم، پارانویا و این باور که همسایه‌اش قصد مسموم کردن او را دارد، به اورژانس مراجعه کرد.

وضعیت او به سرعت وخیم شد و با افزایش توهم‌ها حتی اقدام به فرار از بیمارستان کرد. آزمایش‌ها نشان داد که او به برومیسم (Bromism) مبتلا شده است؛ بیماری‌ای که در قرن نوزدهم و اوایل قرن بیستم به دلیل استفاده از برومید در داروهای آرام‌بخش رایج بود، اما امروزه تقریباً از بین رفته است.

برومیسم چیست؟

برومیسم نوعی مسمومیت با یون برومید است که با تأثیر بر سیستم عصبی مرکزی، می‌تواند باعث بروز علائم عصبی و روانی شدید شود. این بیماری در گذشته بیشتر در اثر مصرف داروهای حاوی برومید رخ می‌داد.

بازسازی مکالمه با ChatGPT

پزشکان برای بررسی بیشتر، گفت‌وگوی بیمار با هوش مصنوعی را شبیه‌سازی کردند. آنها از ChatGPT 3.5 پرسیدند که چه جایگزینی برای کلرید وجود دارد و یکی از پاسخ‌ها «برومید» بود.

هرچند این چت‌بات اشاره کرده بود که «زمینه مهم است»، اما هشدار مشخصی درباره خطرات ارائه نکرد و مانند یک پزشک، پرسش‌های تکمیلی برای درک بهتر شرایط بیمار مطرح نکرد. به گفته محققان، بعید است یک پزشک واقعی چنین پیشنهادی بدهد.

واکنش OpenAI

شرکت OpenAI در واکنش به این گزارش، به شرایط خدمات خود اشاره کرد که در آن تأکید شده است ابزارهای هوش مصنوعی نباید برای تشخیص یا درمان پزشکی و به عنوان تنها منبع حقیقت استفاده شوند.

ماجرای مسمومیت این مرد ۶۰ ساله ثابت می‌کند که استفاده از هوش مصنوعی در حوزه پزشکی باید با احتیاط و همراه با مشورت متخصصان انجام شود. حتی پیشرفته‌ترین چت‌بات‌ها نیز نمی‌توانند جایگزین تجربه و دانش پزشکان شوند و ممکن است اطلاعاتی ارائه دهند که در شرایط خاص خطرناک باشد.
پیش از اعمال هر تغییری در رژیم غذایی یا سبک زندگی خود، بهتر است اطلاعات دریافتی از منابع آنلاین – از جمله ChatGPT – را با یک متخصص معتبر بررسی کنید. این حادثه یادآور آن است که تکنولوژی قدرتمند است، اما مسئولیت استفاده درست از آن بر عهده ماست.