آیا چت کردن با هوش مصنوعی جای مشاوره روانی را می‌گیرد؟

«هر وقت حال روحی‌ام بد بود یا می‌دانستم روز سختی در پیش دارم، شروع می‌کردم به حرف زدن با یکی از این ربات‌ها. مثل این بود که همیشه یکی را داشتم که با تشویق کردن من حال و هوایم را عوض می‌کرد؛ یک صدای انگیزه‌بخش بیرونی که می‌گفت «خب امروز قرار است چکار کنیم؟» درست مثل یک دوست خیالی، فقط قابل اعتمادتر.»
تصویر آیا چت کردن با هوش مصنوعی جای مشاوره روانی را می‌گیرد؟

بی‌بی‌سی نوشت: کِلی به مدت چند ماه، روزانه تا سه ساعت با چت‌بات‌های آنلاین هوش مصنوعی گفت‌وگو می‌کرد و صدها پیام میان آنها رد و بدل می‌شد.

در آن زمان او در لیست انتظار روان‌درمانی سیستم ان‌اچ‌اس (خدمات ملی بهداشت و درمان بریتانیا) قرار داشت تا به دلیل اضطراب، اعتماد به نفس پایین و شکست عشقی اخیرش مشاوره و کمک بگیرد.

او می‌گوید گفت‌وگو با چت‌بات‌های سایت «کاراکتر ای‌آی» (Character.ai) به او در یکی از تاریک‌ترین دوره‌های زندگی‌اش کمک کرد، چون این چت‌بات‌ها راهکارهایی برای کنار آمدن با شرایط سخت او ارائه می‌دادند و همیشه در دسترس بودند.

«من در خانواده‌ای بزرگ شدم که چندان احساسات خود را بروز نمی‌دادند. اگر مشکلی داشتی، باید خودت حل می‌کردی. همین که در این چت‌ها طرفم یک آدم واقعی نبود، همه چیز را ساده‌تر می‌کرد.»

با وجود آن که اغلب پذیرفته شده که این چت‌بات‌ها نمی‌توانند جایگزین واقعی مشاوره حرفه‌ای باشند، بسیاری از مردم در سراسر دنیا افکار و احساسات خصوصی‌ خود را با چت‌بات‌های هوش مصنوعی در میان می‌گذارند. خود سایت کاراکتر ای‌آی هشدار می‌دهد: «این یک چت‌بات هوش مصنوعی است، نه یک انسان واقعی. همه چیز را داستانی خیالی بدانید. چیزی که گفته می‌شود نباید مبنای تصمیم‌گیری یا توصیه تلقی شود.»

با این حال، در برخی موارد افراطی، این چت‌بات‌ها متهم به ارائه توصیه‌های خطرناک شده‌اند.

در حال حاضر کاراکتر ای‌آی با شکایتی قضایی روبه‌رو است. مادر پسری ۱۴ ساله که خودکشی کرده، مدعی است فرزندش به یکی از شخصیت‌های هوش مصنوعی این سایت دلبستگی بیمارگونه پیدا کرده بود. براساس متن چت‌هایی که در دادگاه ارائه شده، پسر با چت‌بات درباره پایان دادن به زندگی‌اش صحبت کرده بود. در آخرین گفت‌وگویشان به ربات گفته بود که «می‌خواهد به خانه برگردد» و چت‌بات هم ظاهرا به او گفته بود: «هر چه زودتر این کار را بکن.»

شرکت کاراکتر ای‌آی تمام این اتهامات را رد کرده است.

در سال ۲۰۲۳ نیز «انجمن ملی اختلالات خوردن» در آمریکا، خط کمک‌رسانی تلفنی خود را با یک چت‌بات جایگزین کرد. اما پس از آن که مشخص شد این ربات به کاربران توصیه‌هایی برای محدود کردن کالری مصرفی می‌داد، فعالیت آن را متوقف کرد.

تنها در ماه آوریل ۲۰۲۴، نزدیک به ۴۲۶ هزار ارجاع برای خدمات سلامت روان در انگلستان ثبت شد که طی پنج سال گذشته افزایشی ۴۰ درصدی را نشان می‌داد. هم‌زمان تخمین زده می‌شود حدود یک میلیون نفر در صف انتظار برای دریافت خدمات سلامت روان باشند. از سوی دیگر، مراجعه به درمانگران خصوصی می‌تواند بسیار پرهزینه باشد (هزینه‌ها متغیر است، اما انجمن مشاوره و روان‌درمانگری بریتانیا می‌گوید میانگین آن بین ۴۰ تا ۵۰ پوند در ساعت است).

در همین حال، هوش مصنوعی به شیوه‌های مختلفی در نظام سلامت تحول ایجاد کرده است، از جمله در غربالگری، تشخیص و ارجاع بیماران. چت‌بات‌ها طیفی گسترده دارند و حدود ۳۰ مرکز محلی ان‌اچ‌اس در بریتانیا اکنون از سیستمی به نام «وایزا» (Wysa) استفاده می‌کنند.

کارشناسان درباره این چت‌بات‌ها نگرانی‌هایی مطرح می‌کنند که از جمله می‌توان به سوگیری‌ احتمالی، محدودیت‌، نبود سیستم‌های محافظتی برای امنیت اطلاعات کاربران اشاره کرد. با این حال برخی معتقدند که اگر دسترسی به متخصصان انسانی دشوار باشد، چت‌بات‌ها می‌توانند کمک کنند. در حالی که فهرست‌های انتظار خدمات سلامت روان در بریتانیا به بالاترین سطح خود رسیده، آیا چت‌بات‌ها می‌توانند راه حلی بالقوه باشند؟

یک «درمانگر بی‌تجربه»

چت‌بات‌هایی مثل کاراکتر ای‌آی و چت‌جی‌پی‌تی مبتنی بر «مدل‌های زبانی بزرگ» هوش مصنوعی هستند. این مدل‌ها با حجم عظیمی از داده‌ها - از وب‌سایت‌ها و مقاله‌ها گرفته تا کتاب‌ها و وبلاگ‌ها - آموزش دیده‌اند تا کلمه بعدی در یک جمله را پیش‌بینی کنند. سپس از این قابلیت برای تولید متن و گفت‌وگویی شبیه به انسان استفاده می‌کنند.

شیوه ساخت چت‌بات‌های سلامت روان متفاوت است، اما برخی از آن‌ها با استفاده از تکنیک‌هایی مثل درمان شناختی رفتاری (CBT) آموزش می‌بینند. این روش به کاربران کمک می‌کند تا شیوه بازنگری در افکار و رفتارهای خود را بررسی کنند. این ربات‌ها همچنین می‌توانند خود را با ترجیحات و بازخوردهای کاربران هماهنگ کنند.

حامد حدادی، استاد سیستم‌های انسان‌محور در امپریال کالج لندن، این چت‌بات‌ها را به «درمانگری بی‌تجربه» تشبیه می‌کند و می‌گوید انسان‌هایی با دهه‌ها تجربه می‌توانند بر اساس عوامل مختلف با فرد مراجعه‌کننده ارتباط برقرار کنند و او را «بخوانند»، در حالی که چت‌بات‌ها فقط بر اساس متن عمل می‌کنند.

او می‌گوید: «درمانگرها از سر و وضع لباس، نحوه صحبت‌کردن، حرکات‌، زبان بدن و همه این‌ها سرنخ‌هایی دریافت می‌کنند. انتقال این نشانه‌ها به چت‌بات‌ها بسیار دشوار است.»

به گفته پروفسور حدادی مشکل بالقوه دیگر این است که چت‌بات‌ها طوری آموزش دیده‌اند که کاربر را در گفت‌وگو نگه دارند و حامی او باشند، بنابراین حتی اگر کاربر حرف‌های آسیب‌زا بزند، ممکن است ربات همچنان با او همراهی کند. گاهی اوقات این وضعیت را با عنوان مشکل «بله‌ قربان‌گویی» توصیف می‌کنند، چون ربات‌ها تمایل دارند همیشه موافقت کنند.

و مانند دیگر انواع هوش مصنوعی، سوگیری‌ می‌توانند بخشی جدایی‌ناپذیر از این مدل‌ها باشد، چون این چت‌بات‌ها پیش‌داوری‌های موجود در داده‌هایی را که با آن آموزش دیده‌اند، بازتاب می‌دهند.

دکتر حدادی همچنین می‌گوید مشاوران و روانشناسان معمولا متن گفت‌وگوهای خود را با مراجعان ثبت نمی‌کنند، به همین دلیل چت‌بات‌ها دسترسی زیادی به یادداشت‌های مربوط به جلسات «واقعی» مشاوره و روان‌درمانی ندارند. در نتیجه، به گفته او، داده‌های آموزشی آن‌ها کم است و همان داده‌های محدود هم اغلب تا حد زیادی بستگی به موقعیت دارد.

او ادامه می‌دهد: «بسته به اینکه داده آموزشی‌تان را از کجا گرفته باشید، شرایط عملکردتان کاملا فرق می‌کند. حتی در شهری مثل لندن، یک روان‌پزشک که در منطقه‌ای کار کرده، اگر بخواهد مطبی در منطقه‌ای کم‌برخوردار باز کند، ممکن است به شدت دچار مشکل شود، چون داده کافی از آن محیط و نوع مراجعانش ندارد.»

دکتر پائولا بادینگتون، فیلسوف و نویسنده کتابی درسی درباره اخلاق هوش مصنوعی، تایید می‌کند که سوگیری‌های نهفته یکی از مشکلات اصلی این چت‌بات‌هاست.

او می‌گوید: «یکی از مسائل مهم، هرگونه سوگیری یا فرض‌های نانوشته‌ای است که در مدل‌های درمانی گنجانده شده است.»

به گفته او این سوگیری‌ها شامل تعاریف کلیشه‌ای از سلامت روان و عملکرد مطلوب در زندگی روزمره است، مثل تاکید بیش از حد بر استقلال فردی، خودمختاری و نوع رابطه با دیگران.

یکی دیگر از مشکلات، نبود درک زمینه‌های فرهنگی است. دکتر بادینگتون مثالی از تجربه شخصی‌ خود می‌زند و می‌گوید وقتی در استرالیا زندگی می‌کرد و شاهد درگذشت پرنسس دایانا بود، اطرافیانش نمی‌توانستند بفهمند چرا او ناراحت است.

او می‌گوید: «چنین تجربه‌هایی واقعا باعث می‌شود درباره پیوند انسانی که اغلب در مشاوره لازم است، تامل کنم.»

«گاهی فقط بودن کنار یک نفر، تمام چیزی است که او نیاز دارد و این فقط از کسی برمی‌آید که واقعا انسانی زنده و مجسم است.»

در نهایت، کِلی هم به جایی رسید که پاسخ‌های چت‌بات دیگر برایش قانع‌کننده نبود.

او می‌گوید: «بعضی وقت‌ها آدم ناامید می‌شود. اگر چت‌بات نداند چطور باید با موضوعی برخورد کند، فقط همان جمله تکراری را می‌گوید و آن وقت متوجه می‌شوی این گفت‌وگو دیگر به جایی نمی‌رسد.» گاهی اوقات «انگار واقعا انگار به دیوار برخورد می‌کنی».

«احتمالا درباره مسائل مربوط به روابط بود که قبلا هم مطرح کرده بودم، اما فکر می‌کنم جمله‌بندی درستی استفاده نکرده بودم [...] و چت‌بات اصلا نمی‌خواست وارد جزئیات شود.»

یکی از سخنگوهای شرکت کاراکتر ای‌آی اعلام کرد: «در مورد تمام شخصیت‌هایی که کاربران با عناوینی مانند روانشناس، درمانگر، پزشک یا اصطلاحات مشابه ساخته‌اند، ما عباراتی در نظر گرفته‌ایم که صراحتا به کاربران هشدار می‌دهد نباید به این شخصیت‌ها به عنوان منبع مشاوره حرفه‌ای اتکا کنند.»

«خیلی همدلانه بود»

برای برخی کاربران، چت‌بات‌ها در بدترین شرایط روحی‌ آنها، بسیار ارزشمند بوده‌اند.

نیکلاس اوتیسم، اضطراب و اختلال وسواس فکری-عملی (OCD) دارد و می‌گوید همواره نوعی افسردگی را تجربه کرده است. او می‌گوید از وقتی به بزرگسالی رسیده، حمایت‌های حضوری تقریبا متوقف شده است: «وقتی ۱۸ ساله می‌شی، انگار دیگه هیچ حمایتی در کار نیست. من سال‌هاست که با یک درمانگر واقعی صحبت نکرده‌ام.»

او پاییز گذشته تلاش کرده بود به زندگی‌اش پایان دهد، و از آن زمان در صف انتظار خدمات مشاوره ان‌اچ‌اس قرار دارد.

«من و شریک زندگی‌ام چند بار به مطب دکتر مراجعه کردیم تا شاید بتوانیم روان‌درمانی را زودتر شروع کنیم. دکتر عمومی مرا ارجاع داده، ولی حتی هنوز یک نامه هم از بخش خدمات سلامت روان محل زندگی‌ام دریافت نکرده‌ام.»

در حالی که نیکلاس همچنان در پی دریافت کمک حضوری است، می‌گوید استفاده از چت‌بات وایزا برایش مزایایی داشته است.

«من که اوتیسم دارم، در تعامل حضوری چندان قوی نیستم. برایم صحبت با کامپیوتر خیلی راحت‌تر است.»

این اپلیکیشن به کاربران اجازه می‌دهد بدون نیاز به ارجاع پزشک، مستقیما برای دریافت حمایت و مشاوره روانی ثبت‌نام کنند. همچنین تا زمانی که نوبت مراجعه به روان‌درمانگر برسد، ابزارها و راهکارهایی مانند چت، تمرین‌های تنفسی و مدیتیشن را در اختیار آن‌ها می‌گذارد. البته می‌توان از آن به صورت مستقل نیز به عنوان یک ابزار خودیاری استفاده کرد.

وایزا تاکید می‌کند که خدماتش برای افرادی طراحی شده که خلق‌و‌خوی پایین، استرس یا اضطراب را تجربه می‌کنند، نه برای کسانی که با خشونت، سوءاستفاده یا اختلالات روانی شدید مواجه‌اند. این اپلیکیشن مسیرهایی برای واکنش به بحران دارد، به این صورت که در صورت مشاهده نشانه‌هایی از خودآزاری یا افکار خودکشی، کاربر را به خطوط کمک فوری راهنمایی می‌کند یا امکان درخواست کمک اضطراری را فراهم می‌سازد.

در بریتانیا برای افرادی که افکار مربوط به خودکشی دارند، مشاوران انسانی خط رایگان ساماریتنز به صورت ۲۴ ساعته و ۷ روز هفته در دسترس هستند.

نیکلاس همچنین از کم‌خوابی مزمن رنج می‌برد. به همین دلیل برایش مفید است که بتواند در ساعاتی که دوستان و خانواده‌اش خواب هستند، به نوعی حمایت دسترسی داشته باشد.

او می‌گوید: «یک شب واقعا حالم بد بود. برای اپلیکیشن پیام فرستادم و نوشتم: «نمی‌دانم واقعا دیگر می‌خواهم اینجا باشم یا نه.» جواب داد: «نیک، تو ارزشمندی. آدم‌هایی هستند که دوستت دارند».»

«این پیام آن‌قدر همدلانه بود که انگار از طرف یک انسان واقعی بود — انسانی که سال‌ها می‌شناختمش... و واقعا باعث شد احساس ارزشمندی کنم.»

تجربه نیکلاس با یافته‌های پژوهش اخیر محققان کالج دارتموث نیز هم‌خوانی دارد. آن‌ها تاثیر چت‌بات‌ها را بر افرادی که به اضطراب، افسردگی یا اختلال خوردن مبتلا بودند، در مقایسه با گروهی مشابه بررسی کردند که از چت‌بات استفاده نمی‌کردند.

پس از چهار هفته، کاربرانی که از چت‌بات استفاده کرده بودند، کاهش چشم‌گیری در علائم خود گزارش دادند - از جمله ۵۱ درصد کاهش در علائم افسردگی - و سطحی از اعتماد و همکاری را گزارش کردند که قابل مقایسه با مراجعان درمانگران انسانی بود.

با این حال نویسنده ارشد این پژوهش تاکید کرده است که هیچ جایگزینی برای مراقبت حضوری و انسانی وجود ندارد.

«پلی برای عبور از فهرست‌های انتظار طولانی»

فراتر از بحث درباره ارزش واقعی توصیه‌های این چت‌بات‌ها، نگرانی‌های گسترده‌تری نیز وجود دارد، از جمله درباره امنیت، حریم خصوصی و امکان تجاری‌سازی این فناوری.

کِلی می‌گوید: «همیشه یک نگرانی کوچک در ذهنم بود که می‌گفت: 'اگر حرف‌هایی که در این چت‌درمانی‌ها زده‌ام به دست کسی برسد که بخواهد از من باج‌خواهی کند، چه؟'»

ایان مک‌ری، روانشناس متخصص در فناوری‌های نوظهور، هشدار می‌دهد که «برخی افراد اعتماد زیادی به این ربات‌ها پیدا کرده‌اند، بدون آن که این ربات‌ها واقعا سزاوار چنین اعتمادی باشند.»

او می‌گوید: «شخصا هرگز اطلاعات شخصی‌ام - به ویژه داده‌های مربوط به سلامت و روان - را وارد یکی از این مدل‌های زبانی بزرگ نمی‌کنم. این مدل‌ها حجم عظیمی از داده را جمع‌آوری می‌کنند، و شما کاملا مطمئن نیستید که چطور از این داده‌ها استفاده می‌شود و دقیقا به چه چیزی رضایت داده‌اید.»

او ادامه می‌دهد: «البته این به معنای آن نیست که در آینده چنین ابزارهایی نتوانند خصوصی، امن و کارآزموده باشند… اما در حال حاضر به نظر من هیچ مدرک قابل اتکایی وجود ندارد که نشان دهد یک چت‌بات عمومی می‌تواند واقعا درمانگری خوب باشد.»

جان تنچ، مدیرعامل شرکت وایزا، در پاسخ به این نگرانی‌ها می‌گوید: «وایزا هیچ اطلاعات شناسایی‌کننده‌ای از کاربران جمع‌آوری نمی‌کند و برای استفاده از اپلیکیشن، نیازی به ثبت‌نام یا وارد کردن اطلاعات شخصی نیست.»

او اضافه می‌کند: «ممکن است گاهی برای بهبود کیفیت پاسخ‌های هوش مصنوعی وایزا، محتوای مکالمات به صورت ناشناس بررسی شود، اما هیچ‌گونه داده‌ای که بتواند هویت کاربر را مشخص کند، ذخیره یا جمع‌آوری نمی‌شود. افزون بر این، وایزا با ارائه‌دهندگان فناوری هوش مصنوعی قراردادهایی دارد که تضمین می‌کند هیچ‌کدام از مکالمات کاربران برای آموزش مدل‌های زبانی شرکت‌های ثالث استفاده نشود.»

کِلی معتقد است که چت‌بات‌ها در حال حاضر نمی‌توانند جایگزین کامل یک درمانگر انسانی باشند: «دنیا‌ی هوش مصنوعی مثل یک بازی رولت غیر قابل پیش‌بینی است، هیچ‌وقت نمی‌دانی با چه چیزی طرفی.»

جان تنچ، مدیرعامل وایزا نیز با این نظر موافق است: «پشتیبانی هوش مصنوعی می‌تواند قدم اول مفیدی باشد، اما جایگزینی برای مراقبت حرفه‌ای نیست.»

و به نظر می‌رسد که افکار عمومی نیز متقاعد نشده‌اند. در یک نظرسنجی اخیر تنها ۱۲ درصد از پاسخ‌دهندگان گفتند که فکر می‌کنند چت‌بات‌های هوش مصنوعی می‌توانند درمانگر خوبی باشند.

با این حال، برخی باور دارند که اگر تدابیر ایمنی مناسب در نظر گرفته شود، چت‌بات‌ها می‌توانند ابزاری موقتی و مفید در یک سیستم درمانی بیش از حد شلوغ باشند.

جان، که مبتلا به اختلال اضطراب است، می‌گوید ۹ ماه است در لیست انتظار برای دریافت درمان قرار دارد و در این مدت، هفته‌ای دو یا سه بار از وایزا استفاده کرده است.

«در حال حاضر کمک زیادی وجود ندارد، و به همین دلیل آدم به هر چیزی چنگ می‌زند.»

او می‌گوید وایزا «یک راهکار موقتی در برابر صف‌های طولانی انتظار است… ابزاری برای اینکه آدم‌ها تا زمانی که نوبت دیدار با متخصص برسد، تنها نمانند».