هفته پیش، گزارشی منتشر شد درباره ادمهایی که فهمیدن روانشناسهاشون موقع جلسات درمانی، یواشکی از ChatGPT استفاده میکردن. بعضی وقتها این قضیه خیلی هم تابلو بوده؛ مثلا یه تراپیست موقع جلسه انلاین، اشتباهی صفحه مانیتورش رو به اشتراک میذاره و بیمارش با چشمهای خودش میبینه که افکار خصوصیش دارن همون لحظه توی ChatGPT تایپ میشن. بعدش هوش مصنوعی یه سری جواب پیشنهاد میده و روانشناس همونها رو مثل طوطی تکرار میکنه.
این ماجرا یکی از داستانهای جالب اخیر درباره هوش مصنوعیه، شاید چون خیلی خوب نشون میده وقتی ادمها دقیقا همونجوری که شرکتهای فناوری بهشون میگن از هوش مصنوعی استفاده میکنن، چه هرج و مرجی میتونه به وجود بیاد.
البته لاری کلارک، نویسنده این گزارش، اشاره میکنه که ایده استفاده از هوش مصنوعی برای درمان، یه رویای کاملا دست نیافتنی هم نیست. اوایل امسال، اولین ازمایش بالینی روی یه ربات هوش مصنوعی که مخصوص درمان ساخته شده بود، انجام شد و نتایجش هم امیدوار کننده بود. اما اینکه روانشناسها مخفیانه از مدلهای هوش مصنوعی استفاده کنن که اصلا برای سلامت روان تایید نشدن، یه داستان کاملا متفاوته. در ادامه، گفتگویی با کلارک رو میخونیم تا ببینیم چی دستگیرش شده.
چرا روانشناسها سراغ هوش مصنوعی میرن؟
بعضیها هوش مصنوعی رو راهی برای صرفهجویی توی وقت میبینن. چندتا روانشناس گفتن که نوشتن یادداشتهای جلسات، عذاب اورترین بخش کارشونه. برای همین به ابزارهای هوش مصنوعی که بتونن توی این زمینه کمک کنن، علاقه دارن. اما اکثرشون درباره استفاده از هوش مصنوعی برای گرفتن مشاوره در مورد نحوه درمان یه بیمار، خیلی شک داشتن. اونها میگفتن بهتره به جای این کار با سرپرستها یا همکارهاشون مشورت کنن یا مطالعات موردی موجود رو بخونن. اونها همچنین خیلی نگران وارد کردن اطلاعات حساس بیمارها توی این ابزارها بودن.
شواهدی وجود داره که نشون میده هوش مصنوعی میتونه درمانهای استانداردتر و به قول معروف «دستورالعملی» مثل CBT (درمان شناختی-رفتاری) رو به شکل نسبتا موثری ارائه بده. پس ممکنه برای اینجور کارها مفیدتر باشه. اما منظور، هوش مصنوعیِ طراحی شده برای این کاره، نه ابزارهای عمومی مثل ChatGPT.
قوانین و مسائل اخلاقی
اگه این روند به مشکل بخوره چی؟ گروههای اخلاقی و قانونگذارها چقدر به این موضوع توجه دارن؟
در حال حاضر، نهادهای حرفهای مثل انجمن مشاوره امریکا توصیه میکنن که از ابزارهای هوش مصنوعی برای تشخیص بیماری استفاده نشه. ممکنه توی اینده قوانین سختگیرانهتری هم برای جلوگیری از این کار وضع بشه. برای مثال، ایالتهای نوادا و ایلینوی به تازگی قوانینی برای ممنوعیت استفاده از هوش مصنوعی در تصمیمگیریهای درمانی تصویب کردن. ممکنه ایالتهای بیشتری هم از این رویه پیروی کنن.
نقش شرکتهای فناوری
سم التمن از شرکت OpenAI ماه گذشته گفت که «خیلی از مردم عملا از ChatGPT به عنوان یه جور روانشناس استفاده میکنن» و به نظر اون این چیز خوبیه. ایا شرکتهای فناوری دارن درباره توانایی هوش مصنوعی برای کمک به ما، بیش از حد وعده میدن؟
به نظر میرسه شرکتهای فناوری دارن به طور نامحسوس این نوع استفاده از هوش مصنوعی رو تشویق میکنن، چون مشخصه که این راهیه که بعضی از مردم از طریقش به محصولات اونها وابسته میشن. مشکل اصلی اینه که چیزی که مردم از این ابزارها میگیرن رو به هیچ وجه نمیشه «درمان» دونست. یه درمان خوب خیلی فراتر از اروم کردن و تایید کردن تمام حرفهای یه نفره. جلسات درمانی واقعی (با یه انسان) اغلب خیلی ناراحت کننده و حتی پریشان کننده هستن. اما بخشی از فرایند درمان همینه. روانشناس باید شما رو به چالش بکشه، از شما حرف بکشه و سعی کنه شما رو درک کنه. ChatGPT هیچکدوم از این کارها رو انجام نمیده.
منابع
- [۱] Help! My therapist is secretly using ChatGPT | MIT Technology Review
دیدگاهتان را بنویسید