در سالهای اخیر، هوش مصنوعی به بخش مهمی از زندگی روزمره ما تبدیل شده و بسیاری از مردم برای دریافت اطلاعات یا توصیههای مختلف – حتی در حوزه سلامت – به ابزارهایی مانند ChatGPT مراجعه میکنند. اما این ماجرا نشان میدهد که اتکا بیچونوچرا به پیشنهادات یک چتبات میتواند عواقب جدی و غیرقابلپیشبینی داشته باشد. داستان مرد ۶۰ سالهای که به دلیل یک توصیه غذایی اشتباه، با مسمومیتی نادر روانه بیمارستان شد، هشداری مهم برای تمام کاربران است.
حالا یک مرد ۶۰ ساله پس از عمل به توصیه ChatGPT برای جایگزینی نمک طعام، دچار یک مسمومیت نادر و خطرناک به نام برومیسم شد و با علائم شدید روانپریشی، از جمله توهم و پارانویا، در بخش اورژانس بستری گردید.
شروع ماجرا؛ حذف نمک طعام از رژیم غذایی
این فرد پس از مطالعه درباره مضرات کلرید موجود در نمک طعام (سدیم کلرید) تصمیم گرفت آن را از رژیم غذایی خود حذف کند. او برای یافتن یک جایگزین مناسب، با چتبات ChatGPT مشورت کرد.
براساس گزارش وبسایت لایوساینس، ChatGPT به او پیشنهاد داد که میتواند کلرید را با «برومید» جایگزین کند. در نتیجه، مرد ۶۰ ساله به مدت سه ماه، تمام نمک طعام خود را با سدیم برومید – که بهصورت آنلاین خریداری کرده بود – جایگزین کرد.
علائم خطرناک مسمومیت برومیسم
سه ماه بعد، این فرد با علائم شدید روانی مانند توهم، پارانویا و این باور که همسایهاش قصد مسموم کردن او را دارد، به اورژانس مراجعه کرد.
وضعیت او به سرعت وخیم شد و با افزایش توهمها حتی اقدام به فرار از بیمارستان کرد. آزمایشها نشان داد که او به برومیسم (Bromism) مبتلا شده است؛ بیماریای که در قرن نوزدهم و اوایل قرن بیستم به دلیل استفاده از برومید در داروهای آرامبخش رایج بود، اما امروزه تقریباً از بین رفته است.
برومیسم چیست؟
برومیسم نوعی مسمومیت با یون برومید است که با تأثیر بر سیستم عصبی مرکزی، میتواند باعث بروز علائم عصبی و روانی شدید شود. این بیماری در گذشته بیشتر در اثر مصرف داروهای حاوی برومید رخ میداد.
بازسازی مکالمه با ChatGPT
پزشکان برای بررسی بیشتر، گفتوگوی بیمار با هوش مصنوعی را شبیهسازی کردند. آنها از ChatGPT 3.5 پرسیدند که چه جایگزینی برای کلرید وجود دارد و یکی از پاسخها «برومید» بود.
هرچند این چتبات اشاره کرده بود که «زمینه مهم است»، اما هشدار مشخصی درباره خطرات ارائه نکرد و مانند یک پزشک، پرسشهای تکمیلی برای درک بهتر شرایط بیمار مطرح نکرد. به گفته محققان، بعید است یک پزشک واقعی چنین پیشنهادی بدهد.
واکنش OpenAI
شرکت OpenAI در واکنش به این گزارش، به شرایط خدمات خود اشاره کرد که در آن تأکید شده است ابزارهای هوش مصنوعی نباید برای تشخیص یا درمان پزشکی و به عنوان تنها منبع حقیقت استفاده شوند.
ماجرای مسمومیت این مرد ۶۰ ساله ثابت میکند که استفاده از هوش مصنوعی در حوزه پزشکی باید با احتیاط و همراه با مشورت متخصصان انجام شود. حتی پیشرفتهترین چتباتها نیز نمیتوانند جایگزین تجربه و دانش پزشکان شوند و ممکن است اطلاعاتی ارائه دهند که در شرایط خاص خطرناک باشد.
پیش از اعمال هر تغییری در رژیم غذایی یا سبک زندگی خود، بهتر است اطلاعات دریافتی از منابع آنلاین – از جمله ChatGPT – را با یک متخصص معتبر بررسی کنید. این حادثه یادآور آن است که تکنولوژی قدرتمند است، اما مسئولیت استفاده درست از آن بر عهده ماست.