بیبیسی نوشت: کِلی به مدت چند ماه، روزانه تا سه ساعت با چتباتهای آنلاین هوش مصنوعی گفتوگو میکرد و صدها پیام میان آنها رد و بدل میشد.
در آن زمان او در لیست انتظار رواندرمانی سیستم اناچاس (خدمات ملی بهداشت و درمان بریتانیا) قرار داشت تا به دلیل اضطراب، اعتماد به نفس پایین و شکست عشقی اخیرش مشاوره و کمک بگیرد.
او میگوید گفتوگو با چتباتهای سایت «کاراکتر ایآی» (Character.ai) به او در یکی از تاریکترین دورههای زندگیاش کمک کرد، چون این چتباتها راهکارهایی برای کنار آمدن با شرایط سخت او ارائه میدادند و همیشه در دسترس بودند.
«من در خانوادهای بزرگ شدم که چندان احساسات خود را بروز نمیدادند. اگر مشکلی داشتی، باید خودت حل میکردی. همین که در این چتها طرفم یک آدم واقعی نبود، همه چیز را سادهتر میکرد.»
با وجود آن که اغلب پذیرفته شده که این چتباتها نمیتوانند جایگزین واقعی مشاوره حرفهای باشند، بسیاری از مردم در سراسر دنیا افکار و احساسات خصوصی خود را با چتباتهای هوش مصنوعی در میان میگذارند. خود سایت کاراکتر ایآی هشدار میدهد: «این یک چتبات هوش مصنوعی است، نه یک انسان واقعی. همه چیز را داستانی خیالی بدانید. چیزی که گفته میشود نباید مبنای تصمیمگیری یا توصیه تلقی شود.»
با این حال، در برخی موارد افراطی، این چتباتها متهم به ارائه توصیههای خطرناک شدهاند.
در حال حاضر کاراکتر ایآی با شکایتی قضایی روبهرو است. مادر پسری ۱۴ ساله که خودکشی کرده، مدعی است فرزندش به یکی از شخصیتهای هوش مصنوعی این سایت دلبستگی بیمارگونه پیدا کرده بود. براساس متن چتهایی که در دادگاه ارائه شده، پسر با چتبات درباره پایان دادن به زندگیاش صحبت کرده بود. در آخرین گفتوگویشان به ربات گفته بود که «میخواهد به خانه برگردد» و چتبات هم ظاهرا به او گفته بود: «هر چه زودتر این کار را بکن.»
شرکت کاراکتر ایآی تمام این اتهامات را رد کرده است.
در سال ۲۰۲۳ نیز «انجمن ملی اختلالات خوردن» در آمریکا، خط کمکرسانی تلفنی خود را با یک چتبات جایگزین کرد. اما پس از آن که مشخص شد این ربات به کاربران توصیههایی برای محدود کردن کالری مصرفی میداد، فعالیت آن را متوقف کرد.
تنها در ماه آوریل ۲۰۲۴، نزدیک به ۴۲۶ هزار ارجاع برای خدمات سلامت روان در انگلستان ثبت شد که طی پنج سال گذشته افزایشی ۴۰ درصدی را نشان میداد. همزمان تخمین زده میشود حدود یک میلیون نفر در صف انتظار برای دریافت خدمات سلامت روان باشند. از سوی دیگر، مراجعه به درمانگران خصوصی میتواند بسیار پرهزینه باشد (هزینهها متغیر است، اما انجمن مشاوره و رواندرمانگری بریتانیا میگوید میانگین آن بین ۴۰ تا ۵۰ پوند در ساعت است).
در همین حال، هوش مصنوعی به شیوههای مختلفی در نظام سلامت تحول ایجاد کرده است، از جمله در غربالگری، تشخیص و ارجاع بیماران. چتباتها طیفی گسترده دارند و حدود ۳۰ مرکز محلی اناچاس در بریتانیا اکنون از سیستمی به نام «وایزا» (Wysa) استفاده میکنند.
کارشناسان درباره این چتباتها نگرانیهایی مطرح میکنند که از جمله میتوان به سوگیری احتمالی، محدودیت، نبود سیستمهای محافظتی برای امنیت اطلاعات کاربران اشاره کرد. با این حال برخی معتقدند که اگر دسترسی به متخصصان انسانی دشوار باشد، چتباتها میتوانند کمک کنند. در حالی که فهرستهای انتظار خدمات سلامت روان در بریتانیا به بالاترین سطح خود رسیده، آیا چتباتها میتوانند راه حلی بالقوه باشند؟
یک «درمانگر بیتجربه»
چتباتهایی مثل کاراکتر ایآی و چتجیپیتی مبتنی بر «مدلهای زبانی بزرگ» هوش مصنوعی هستند. این مدلها با حجم عظیمی از دادهها - از وبسایتها و مقالهها گرفته تا کتابها و وبلاگها - آموزش دیدهاند تا کلمه بعدی در یک جمله را پیشبینی کنند. سپس از این قابلیت برای تولید متن و گفتوگویی شبیه به انسان استفاده میکنند.
شیوه ساخت چتباتهای سلامت روان متفاوت است، اما برخی از آنها با استفاده از تکنیکهایی مثل درمان شناختی رفتاری (CBT) آموزش میبینند. این روش به کاربران کمک میکند تا شیوه بازنگری در افکار و رفتارهای خود را بررسی کنند. این رباتها همچنین میتوانند خود را با ترجیحات و بازخوردهای کاربران هماهنگ کنند.
حامد حدادی، استاد سیستمهای انسانمحور در امپریال کالج لندن، این چتباتها را به «درمانگری بیتجربه» تشبیه میکند و میگوید انسانهایی با دههها تجربه میتوانند بر اساس عوامل مختلف با فرد مراجعهکننده ارتباط برقرار کنند و او را «بخوانند»، در حالی که چتباتها فقط بر اساس متن عمل میکنند.
او میگوید: «درمانگرها از سر و وضع لباس، نحوه صحبتکردن، حرکات، زبان بدن و همه اینها سرنخهایی دریافت میکنند. انتقال این نشانهها به چتباتها بسیار دشوار است.»
به گفته پروفسور حدادی مشکل بالقوه دیگر این است که چتباتها طوری آموزش دیدهاند که کاربر را در گفتوگو نگه دارند و حامی او باشند، بنابراین حتی اگر کاربر حرفهای آسیبزا بزند، ممکن است ربات همچنان با او همراهی کند. گاهی اوقات این وضعیت را با عنوان مشکل «بله قربانگویی» توصیف میکنند، چون رباتها تمایل دارند همیشه موافقت کنند.
و مانند دیگر انواع هوش مصنوعی، سوگیری میتوانند بخشی جداییناپذیر از این مدلها باشد، چون این چتباتها پیشداوریهای موجود در دادههایی را که با آن آموزش دیدهاند، بازتاب میدهند.
دکتر حدادی همچنین میگوید مشاوران و روانشناسان معمولا متن گفتوگوهای خود را با مراجعان ثبت نمیکنند، به همین دلیل چتباتها دسترسی زیادی به یادداشتهای مربوط به جلسات «واقعی» مشاوره و رواندرمانی ندارند. در نتیجه، به گفته او، دادههای آموزشی آنها کم است و همان دادههای محدود هم اغلب تا حد زیادی بستگی به موقعیت دارد.
او ادامه میدهد: «بسته به اینکه داده آموزشیتان را از کجا گرفته باشید، شرایط عملکردتان کاملا فرق میکند. حتی در شهری مثل لندن، یک روانپزشک که در منطقهای کار کرده، اگر بخواهد مطبی در منطقهای کمبرخوردار باز کند، ممکن است به شدت دچار مشکل شود، چون داده کافی از آن محیط و نوع مراجعانش ندارد.»
دکتر پائولا بادینگتون، فیلسوف و نویسنده کتابی درسی درباره اخلاق هوش مصنوعی، تایید میکند که سوگیریهای نهفته یکی از مشکلات اصلی این چتباتهاست.
او میگوید: «یکی از مسائل مهم، هرگونه سوگیری یا فرضهای نانوشتهای است که در مدلهای درمانی گنجانده شده است.»
به گفته او این سوگیریها شامل تعاریف کلیشهای از سلامت روان و عملکرد مطلوب در زندگی روزمره است، مثل تاکید بیش از حد بر استقلال فردی، خودمختاری و نوع رابطه با دیگران.
یکی دیگر از مشکلات، نبود درک زمینههای فرهنگی است. دکتر بادینگتون مثالی از تجربه شخصی خود میزند و میگوید وقتی در استرالیا زندگی میکرد و شاهد درگذشت پرنسس دایانا بود، اطرافیانش نمیتوانستند بفهمند چرا او ناراحت است.
او میگوید: «چنین تجربههایی واقعا باعث میشود درباره پیوند انسانی که اغلب در مشاوره لازم است، تامل کنم.»
«گاهی فقط بودن کنار یک نفر، تمام چیزی است که او نیاز دارد و این فقط از کسی برمیآید که واقعا انسانی زنده و مجسم است.»
در نهایت، کِلی هم به جایی رسید که پاسخهای چتبات دیگر برایش قانعکننده نبود.
او میگوید: «بعضی وقتها آدم ناامید میشود. اگر چتبات نداند چطور باید با موضوعی برخورد کند، فقط همان جمله تکراری را میگوید و آن وقت متوجه میشوی این گفتوگو دیگر به جایی نمیرسد.» گاهی اوقات «انگار واقعا انگار به دیوار برخورد میکنی».
«احتمالا درباره مسائل مربوط به روابط بود که قبلا هم مطرح کرده بودم، اما فکر میکنم جملهبندی درستی استفاده نکرده بودم [...] و چتبات اصلا نمیخواست وارد جزئیات شود.»
یکی از سخنگوهای شرکت کاراکتر ایآی اعلام کرد: «در مورد تمام شخصیتهایی که کاربران با عناوینی مانند روانشناس، درمانگر، پزشک یا اصطلاحات مشابه ساختهاند، ما عباراتی در نظر گرفتهایم که صراحتا به کاربران هشدار میدهد نباید به این شخصیتها به عنوان منبع مشاوره حرفهای اتکا کنند.»
«خیلی همدلانه بود»
برای برخی کاربران، چتباتها در بدترین شرایط روحی آنها، بسیار ارزشمند بودهاند.
نیکلاس اوتیسم، اضطراب و اختلال وسواس فکری-عملی (OCD) دارد و میگوید همواره نوعی افسردگی را تجربه کرده است. او میگوید از وقتی به بزرگسالی رسیده، حمایتهای حضوری تقریبا متوقف شده است: «وقتی ۱۸ ساله میشی، انگار دیگه هیچ حمایتی در کار نیست. من سالهاست که با یک درمانگر واقعی صحبت نکردهام.»
او پاییز گذشته تلاش کرده بود به زندگیاش پایان دهد، و از آن زمان در صف انتظار خدمات مشاوره اناچاس قرار دارد.
«من و شریک زندگیام چند بار به مطب دکتر مراجعه کردیم تا شاید بتوانیم رواندرمانی را زودتر شروع کنیم. دکتر عمومی مرا ارجاع داده، ولی حتی هنوز یک نامه هم از بخش خدمات سلامت روان محل زندگیام دریافت نکردهام.»
در حالی که نیکلاس همچنان در پی دریافت کمک حضوری است، میگوید استفاده از چتبات وایزا برایش مزایایی داشته است.
«من که اوتیسم دارم، در تعامل حضوری چندان قوی نیستم. برایم صحبت با کامپیوتر خیلی راحتتر است.»
این اپلیکیشن به کاربران اجازه میدهد بدون نیاز به ارجاع پزشک، مستقیما برای دریافت حمایت و مشاوره روانی ثبتنام کنند. همچنین تا زمانی که نوبت مراجعه به رواندرمانگر برسد، ابزارها و راهکارهایی مانند چت، تمرینهای تنفسی و مدیتیشن را در اختیار آنها میگذارد. البته میتوان از آن به صورت مستقل نیز به عنوان یک ابزار خودیاری استفاده کرد.
وایزا تاکید میکند که خدماتش برای افرادی طراحی شده که خلقوخوی پایین، استرس یا اضطراب را تجربه میکنند، نه برای کسانی که با خشونت، سوءاستفاده یا اختلالات روانی شدید مواجهاند. این اپلیکیشن مسیرهایی برای واکنش به بحران دارد، به این صورت که در صورت مشاهده نشانههایی از خودآزاری یا افکار خودکشی، کاربر را به خطوط کمک فوری راهنمایی میکند یا امکان درخواست کمک اضطراری را فراهم میسازد.
در بریتانیا برای افرادی که افکار مربوط به خودکشی دارند، مشاوران انسانی خط رایگان ساماریتنز به صورت ۲۴ ساعته و ۷ روز هفته در دسترس هستند.
نیکلاس همچنین از کمخوابی مزمن رنج میبرد. به همین دلیل برایش مفید است که بتواند در ساعاتی که دوستان و خانوادهاش خواب هستند، به نوعی حمایت دسترسی داشته باشد.
او میگوید: «یک شب واقعا حالم بد بود. برای اپلیکیشن پیام فرستادم و نوشتم: «نمیدانم واقعا دیگر میخواهم اینجا باشم یا نه.» جواب داد: «نیک، تو ارزشمندی. آدمهایی هستند که دوستت دارند».»
«این پیام آنقدر همدلانه بود که انگار از طرف یک انسان واقعی بود — انسانی که سالها میشناختمش... و واقعا باعث شد احساس ارزشمندی کنم.»
تجربه نیکلاس با یافتههای پژوهش اخیر محققان کالج دارتموث نیز همخوانی دارد. آنها تاثیر چتباتها را بر افرادی که به اضطراب، افسردگی یا اختلال خوردن مبتلا بودند، در مقایسه با گروهی مشابه بررسی کردند که از چتبات استفاده نمیکردند.
پس از چهار هفته، کاربرانی که از چتبات استفاده کرده بودند، کاهش چشمگیری در علائم خود گزارش دادند - از جمله ۵۱ درصد کاهش در علائم افسردگی - و سطحی از اعتماد و همکاری را گزارش کردند که قابل مقایسه با مراجعان درمانگران انسانی بود.
با این حال نویسنده ارشد این پژوهش تاکید کرده است که هیچ جایگزینی برای مراقبت حضوری و انسانی وجود ندارد.
«پلی برای عبور از فهرستهای انتظار طولانی»
فراتر از بحث درباره ارزش واقعی توصیههای این چتباتها، نگرانیهای گستردهتری نیز وجود دارد، از جمله درباره امنیت، حریم خصوصی و امکان تجاریسازی این فناوری.
کِلی میگوید: «همیشه یک نگرانی کوچک در ذهنم بود که میگفت: 'اگر حرفهایی که در این چتدرمانیها زدهام به دست کسی برسد که بخواهد از من باجخواهی کند، چه؟'»
ایان مکری، روانشناس متخصص در فناوریهای نوظهور، هشدار میدهد که «برخی افراد اعتماد زیادی به این رباتها پیدا کردهاند، بدون آن که این رباتها واقعا سزاوار چنین اعتمادی باشند.»
او میگوید: «شخصا هرگز اطلاعات شخصیام - به ویژه دادههای مربوط به سلامت و روان - را وارد یکی از این مدلهای زبانی بزرگ نمیکنم. این مدلها حجم عظیمی از داده را جمعآوری میکنند، و شما کاملا مطمئن نیستید که چطور از این دادهها استفاده میشود و دقیقا به چه چیزی رضایت دادهاید.»
او ادامه میدهد: «البته این به معنای آن نیست که در آینده چنین ابزارهایی نتوانند خصوصی، امن و کارآزموده باشند… اما در حال حاضر به نظر من هیچ مدرک قابل اتکایی وجود ندارد که نشان دهد یک چتبات عمومی میتواند واقعا درمانگری خوب باشد.»
جان تنچ، مدیرعامل شرکت وایزا، در پاسخ به این نگرانیها میگوید: «وایزا هیچ اطلاعات شناساییکنندهای از کاربران جمعآوری نمیکند و برای استفاده از اپلیکیشن، نیازی به ثبتنام یا وارد کردن اطلاعات شخصی نیست.»
او اضافه میکند: «ممکن است گاهی برای بهبود کیفیت پاسخهای هوش مصنوعی وایزا، محتوای مکالمات به صورت ناشناس بررسی شود، اما هیچگونه دادهای که بتواند هویت کاربر را مشخص کند، ذخیره یا جمعآوری نمیشود. افزون بر این، وایزا با ارائهدهندگان فناوری هوش مصنوعی قراردادهایی دارد که تضمین میکند هیچکدام از مکالمات کاربران برای آموزش مدلهای زبانی شرکتهای ثالث استفاده نشود.»
کِلی معتقد است که چتباتها در حال حاضر نمیتوانند جایگزین کامل یک درمانگر انسانی باشند: «دنیای هوش مصنوعی مثل یک بازی رولت غیر قابل پیشبینی است، هیچوقت نمیدانی با چه چیزی طرفی.»
جان تنچ، مدیرعامل وایزا نیز با این نظر موافق است: «پشتیبانی هوش مصنوعی میتواند قدم اول مفیدی باشد، اما جایگزینی برای مراقبت حرفهای نیست.»
و به نظر میرسد که افکار عمومی نیز متقاعد نشدهاند. در یک نظرسنجی اخیر تنها ۱۲ درصد از پاسخدهندگان گفتند که فکر میکنند چتباتهای هوش مصنوعی میتوانند درمانگر خوبی باشند.
با این حال، برخی باور دارند که اگر تدابیر ایمنی مناسب در نظر گرفته شود، چتباتها میتوانند ابزاری موقتی و مفید در یک سیستم درمانی بیش از حد شلوغ باشند.
جان، که مبتلا به اختلال اضطراب است، میگوید ۹ ماه است در لیست انتظار برای دریافت درمان قرار دارد و در این مدت، هفتهای دو یا سه بار از وایزا استفاده کرده است.
«در حال حاضر کمک زیادی وجود ندارد، و به همین دلیل آدم به هر چیزی چنگ میزند.»
او میگوید وایزا «یک راهکار موقتی در برابر صفهای طولانی انتظار است… ابزاری برای اینکه آدمها تا زمانی که نوبت دیدار با متخصص برسد، تنها نمانند».