کارشناسان سلامت روان در بریتانیا هشدار دادهاند که استفاده روزافزون افراد آسیبپذیر از چتباتهای هوش مصنوعی به جای مراجعه به درمانگران حرفهای، میتواند پیامدهایی جدی و حتی مرگبار داشته باشد.
رواندرمانگران و روانپزشکان میگویند وابستگی عاطفی به چتباتها، تشدید اضطراب، خودتشخیصیهای اشتباه و تقویت افکار توهمی یا گرایش به خودکشی تنها بخشی از آسیبهای این روند است.
دکتر لیزا موریسون، مدیر استانداردهای حرفهای و پژوهش در «انجمن مشاوره و رواندرمانی بریتانیا» گفت: «بدون درک درست و نظارت بر درمانهای مبتنی بر هوش مصنوعی، در حال لغزیدن به سمت پرتگاهی خطرناک هستیم؛ جایی که مهمترین عناصر درمان از بین میرود و افراد آسیبپذیر در تاریکیِ بیاطمینانی رها میشوند.»
به گفته او، دوسوم اعضای این انجمن در نظرسنجی اخیر نگرانی خود را درباره جایگزینی هوش مصنوعی با درمان انسانی ابراز کردهاند.
از سوی دیگر، دکتر پل بردلی از «کالج سلطنتی روانپزشکان» تأکید کرد: «چتباتها هرگز جایگزین مراقبت حرفهای سلامت روان یا رابطه حیاتی پزشک و بیمار نیستند. ابزارهای دیجیتال تنها میتوانند مکمل درمان باشند، نه جایگزین آن.»
نگرانیها زمانی جدیتر شد که خانواده نوجوانی در آمریکا – که پس از ماهها گفتوگو با یک چتبات خودکشی کرد – از شرکت «اوپن آی» شکایت کردند. این شرکت اکنون وعده داده نحوه پاسخگویی به کاربران در شرایط بحرانی را تغییر دهد. همچنین ایالت ایلینوی در آمریکا نخستین نهادی شد که استفاده از چتباتها به عنوان درمانگر مستقل را ممنوع کرد.
پژوهشهای تازه نیز نشان میدهد این فناوری میتواند توهمات و باورهای اغراقآمیز بیماران مستعد روانپریشی را تقویت کند. دکتر هامیلتون مورین از «کالج کینگز لندن» گفت: «چتباتها با در دسترس بودن ۲۴ ساعته مرزهای لازم در درمان را از بین میبرند. ممکن است در کوتاهمدت تسکیندهنده باشند، اما در واقع چرخه بیماری را تثبیت میکنند.»
برخی درمانگران نیز گفتهاند مراجعانشان حتی متن گفتوگو با هوش مصنوعی را به جلسات درمان میآورند و با استناد به آنها، نظر درمانگر را رد میکنند. از جمله، افراد زیادی برای خودتشخیصی اختلالاتی چون ایدیاچدی به سراغ چتباتها میروند؛ تشخیصهایی که میتواند نگاه فرد به خودش و رابطهاش با دیگران را بهطور بنیادین – و گاه بهاشتباه – تغییر دهد.
مت هاسی، رواندرمانگرعضو انجمن مشاوره و رواندرمانی بریتانیا، افزود: «چون چتباتها طوری طراحی شدهاند که اغلب پاسخهای مثبت و تأییدی بدهند، به ندرت پیشفرضهای غلط یا سوالات نادرست را به چالش میکشند. همین باعث میشود کاربر با اطمینانِ کاذب از گفتوگو خارج شود: “دیدی حق با من بود!” اما این رضایت لحظهای، در نهایت سوءبرداشتها را تثبیت میکند.
رواندرمانگران میگویند اگرچه هوش مصنوعی میتواند دسترسی سریعتری به اطلاعات روانشناختی فراهم کند، اما جایگزینی آن با درمان انسانی، افراد آسیبپذیر را در معرض خطر واقعی قرار میدهد؛ خطری که میتواند از اضطراب و افسردگی گرفته خودکشی امتداد یابد.