GeekAlerts

جایی برای گیک‌ها

احتمالا تراپیست شما مخفیانه از ChatGPT استفاده می‌کند

احتمالا تراپیست شما مخفیانه از ChatGPT استفاده می‌کند

هفته پیش، گزارشی منتشر شد درباره ادم‌هایی که فهمیدن روانشناس‌هاشون موقع جلسات درمانی، یواشکی از ChatGPT استفاده میکردن. بعضی وقت‌ها این قضیه خیلی هم تابلو بوده؛ مثلا یه تراپیست موقع جلسه انلاین، اشتباهی صفحه مانیتورش رو به اشتراک میذاره و بیمارش با چشم‌های خودش میبینه که افکار خصوصیش دارن همون لحظه توی ChatGPT تایپ میشن. بعدش هوش مصنوعی یه سری جواب پیشنهاد میده و روانشناس همون‌ها رو مثل طوطی تکرار میکنه.

این ماجرا یکی از داستان‌های جالب اخیر درباره هوش مصنوعیه، شاید چون خیلی خوب نشون میده وقتی ادم‌ها دقیقا همونجوری که شرکت‌های فناوری بهشون میگن از هوش مصنوعی استفاده میکنن، چه هرج و مرجی میتونه به وجود بیاد.

البته لاری کلارک، نویسنده این گزارش، اشاره میکنه که ایده استفاده از هوش مصنوعی برای درمان، یه رویای کاملا دست نیافتنی هم نیست. اوایل امسال، اولین ازمایش بالینی روی یه ربات هوش مصنوعی که مخصوص درمان ساخته شده بود، انجام شد و نتایجش هم امیدوار کننده بود. اما اینکه روانشناس‌ها مخفیانه از مدل‌های هوش مصنوعی استفاده کنن که اصلا برای سلامت روان تایید نشدن، یه داستان کاملا متفاوته. در ادامه، گفتگویی با کلارک رو میخونیم تا ببینیم چی دستگیرش شده.

چرا روانشناس‌ها سراغ هوش مصنوعی میرن؟

بعضی‌ها هوش مصنوعی رو راهی برای صرفه‌جویی توی وقت میبینن. چندتا روانشناس گفتن که نوشتن یادداشت‌های جلسات، عذاب اورترین بخش کارشونه. برای همین به ابزارهای هوش مصنوعی که بتونن توی این زمینه کمک کنن، علاقه دارن. اما اکثرشون درباره استفاده از هوش مصنوعی برای گرفتن مشاوره در مورد نحوه درمان یه بیمار، خیلی شک داشتن. اون‌ها میگفتن بهتره به جای این کار با سرپرست‌ها یا همکارهاشون مشورت کنن یا مطالعات موردی موجود رو بخونن. اون‌ها همچنین خیلی نگران وارد کردن اطلاعات حساس بیمارها توی این ابزارها بودن.

شواهدی وجود داره که نشون میده هوش مصنوعی میتونه درمان‌های استانداردتر و به قول معروف «دستورالعملی» مثل CBT (درمان شناختی-رفتاری) رو به شکل نسبتا موثری ارائه بده. پس ممکنه برای اینجور کارها مفیدتر باشه. اما منظور، هوش مصنوعیِ طراحی شده برای این کاره، نه ابزارهای عمومی مثل ChatGPT.

قوانین و مسائل اخلاقی

اگه این روند به مشکل بخوره چی؟ گروه‌های اخلاقی و قانون‌گذارها چقدر به این موضوع توجه دارن؟

در حال حاضر، نهادهای حرفه‌ای مثل انجمن مشاوره امریکا توصیه میکنن که از ابزارهای هوش مصنوعی برای تشخیص بیماری استفاده نشه. ممکنه توی اینده قوانین سخت‌گیرانه‌تری هم برای جلوگیری از این کار وضع بشه. برای مثال، ایالت‌های نوادا و ایلینوی به تازگی قوانینی برای ممنوعیت استفاده از هوش مصنوعی در تصمیم‌گیری‌های درمانی تصویب کردن. ممکنه ایالت‌های بیشتری هم از این رویه پیروی کنن.

نقش شرکت‌های فناوری

سم التمن از شرکت OpenAI ماه گذشته گفت که «خیلی از مردم عملا از ChatGPT به عنوان یه جور روانشناس استفاده میکنن» و به نظر اون این چیز خوبیه. ایا شرکت‌های فناوری دارن درباره توانایی هوش مصنوعی برای کمک به ما، بیش از حد وعده میدن؟

به نظر میرسه شرکت‌های فناوری دارن به طور نامحسوس این نوع استفاده از هوش مصنوعی رو تشویق میکنن، چون مشخصه که این راهیه که بعضی از مردم از طریقش به محصولات اون‌ها وابسته میشن. مشکل اصلی اینه که چیزی که مردم از این ابزارها میگیرن رو به هیچ وجه نمیشه «درمان» دونست. یه درمان خوب خیلی فراتر از اروم کردن و تایید کردن تمام حرف‌های یه نفره. جلسات درمانی واقعی (با یه انسان) اغلب خیلی ناراحت کننده و حتی پریشان کننده هستن. اما بخشی از فرایند درمان همینه. روانشناس باید شما رو به چالش بکشه، از شما حرف بکشه و سعی کنه شما رو درک کنه. ChatGPT هیچکدوم از این کارها رو انجام نمیده.

منابع

  • [۱] Help! My therapist is secretly using ChatGPT | MIT Technology Review

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *