آیا هوش مصنوعی گزینه مناسب مشاوره سلامت روان است؟

در حالی که درمان‌های روان‌گردان به‌تدریج جای خود را در نظام‌های سلامت روان باز می‌کنند، برخی کاربران در غرب، برای صرفه‌جویی در هزینه‌های سنگین روان‌درمانی با داروهای روان‌گردان، به سراغ چت‌بات‌هایی مثل ChatGPT رفته‌اند؛ به امید آن‌که «هم‌نشینی هوشمند» آن‌ها در طول سفر روانی‌شان باشد. اما کارشناسان این روند را بسیار نگران‌کننده می‌دانند.

به گزارش پارسینه پلاس، در سال ۲۰۲۳، یک دانشجوی کانادایی به نام پیتر که در شرایط روحی دشواری قرار داشت، تصمیم گرفت با مصرف مقدار زیادی قارچ روان‌گردان (حاوی سیلوسایبین)، خود را از افسردگی بیرون بکشد. اما به‌جای مراجعه به کلینیک روان‌درمانی، در اتاق تاریک خود نشست و تنها همراهش صفحه‌ی روشن تلفن‌همراه بود: ChatGPT. با بالا گرفتن اثر دارو و شروع اضطراب، پیتر برای چت‌بات نوشت: «زیاد خوردم.» و پاسخ دریافت کرد: «اثراتی که تجربه می‌کنی موقتی است و به‌زودی فروکش می‌کند.»

او آرام شد، حتی احساس آرامش و صلح با خود کرد. اما تجربه‌ی پیتر، حالا تبدیل به روندی جدید شده: استفاده از چت‌بات‌ها به‌عنوان «مراقب سفر» روان‌گردانی.

سفر با قارچ و ChatGPTاوج‌گیری هم‌زمان دو موج: هوش مصنوعی و روان‌گردان‌ها

در سال‌های اخیر، استفاده از چت‌بات‌ها به‌عنوان جایگزین روان‌درمانگر واقعی شدت گرفته است؛ تا حدی به‌دلیل هزینه‌های بالا، انگ اجتماعی یا کمبود دسترسی به مشاوران حرفه‌ای. هم‌زمان، روان‌گردان‌هایی مثل سیلوسایبین، LSD و کتامین به‌عنوان راهکارهای جدید درمان افسردگی و PTSD وارد فازهای قانونی و بالینی شده‌اند؛ البته با قیمت‌هایی بین ۱۵۰۰ تا ۳۲۰۰ دلار به ازای هر جلسه.

در چنین شرایطی، استفاده از چت‌بات‌ها برای همراهی در طول تجربه روان‌گردانی، به نظر برخی افراد راهکاری منطقی و ارزان است. پلتفرم‌هایی مثل TripSitAI یا The Shaman هم به‌طور خاص برای همین هدف طراحی شده‌اند.

اما روان‌درمانی، مکالمه صرف نیست

کارشناسان هشدار می‌دهند: چت‌بات‌هایی مثل ChatGPT به‌گونه‌ای طراحی شده‌اند که کاربر را درگیر مکالمه کنند، نه این‌که سکوت کنند یا فقط گوش دهند؛ مهارتی که برای درمان روان‌گردانی بسیار حیاتی است. به گفته‌ی ویلیام ون‌درویر، روان‌درمانگر مرکز مطالعات روان‌گردان MAPS، «درمان با روان‌گردان، اساساً درونی و مبتنی بر سکوت است، نه گفت‌وگوی مداوم.»

از سوی دیگر، چت‌بات‌ها معمولاً برای جلب رضایت کاربر، باورهای او را بدون چالش تأیید می‌کنند؛ حتی اگر این باورها خیالی یا خطرناک باشند. بر اساس پژوهشی از دانشگاه استنفورد، چت‌بات‌ها می‌توانند باورهایی چون توهم مرگ یا افکار خودکشی را تأیید و تشدید کنند.

یکی از کارشناسان MIT می‌گوید: «وقتی فکر می‌کنیم چت‌بات می‌تواند جایگزین یک روان‌درمانگر انسانی شود، داریم کل فرآیند درمانی را به چند جمله‌ی دل‌نشین تقلیل می‌دهیم. این نه‌تنها بی‌اثر است، بلکه می‌تواند خطرناک‌تر از هیچ‌درمانی باشد.»

تجربه‌ای که شاید واقعی نباشد، اما احساس واقعی می‌دهد

با این‌حال، تجربه‌های کاربرانی مانند پیتر نشان می‌دهد که آن‌ها در لحظه، چت‌بات را نه‌تنها یک همراه، بلکه نوعی راهنما می‌دانند. پیتر در طول پنج ساعت گفتگو با ChatGPT، از هیولای آگاهی برتر حرف زد که پوشیده از چشم بود و از ورای واقعیت عبور می‌کرد. او احساس رهایی از خود و معنا کرد و وقتی نوشت: «هیچ‌چیز مهم نیست»، ChatGPT پاسخ داد: «اگر معنایی از پیش تعیین‌شده وجود ندارد، یعنی آزادی داریم که معنای خود را بسازیم.»

اما آیا همین حس رضایت، دلیلی کافی برای اتکا به هوش مصنوعی به‌جای روان‌درمانگر است؟ یا تنها توهمی آرام‌بخش در دل سفری پرخطر است؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا