یکشنبه، ۹ شهریور ۱۴۰۴

نگاه جهان

هشدار روان‌درمانگران: پناه بردن به چت‌بات‌های هوش مصنوعی خطر سقوط در پرتگاه دارد

کارشناسان سلامت روان در بریتانیا هشدار داده‌اند که استفاده روزافزون افراد آسیب‌پذیر از چت‌بات‌های هوش مصنوعی به جای مراجعه به درمانگران حرفه‌ای، می‌تواند پیامدهایی جدی و حتی مرگبار داشته باشد.

روان‌درمانگران و روان‌پزشکان می‌گویند وابستگی عاطفی به چت‌بات‌ها، تشدید اضطراب، خودتشخیصی‌های اشتباه و تقویت افکار توهمی یا گرایش به خودکشی تنها بخشی از آسیب‌های این روند است.

دکتر لیزا موریسون، مدیر استانداردهای حرفه‌ای و پژوهش در «انجمن مشاوره و روان‌درمانی بریتانیا» گفت: «بدون درک درست و نظارت بر درمان‌های مبتنی بر هوش مصنوعی، در حال لغزیدن به سمت پرتگاهی خطرناک هستیم؛ جایی که مهم‌ترین عناصر درمان از بین می‌رود و افراد آسیب‌پذیر در تاریکیِ بی‌اطمینانی رها می‌شوند.»

به گفته او، دوسوم اعضای این انجمن در نظرسنجی اخیر نگرانی خود را درباره جایگزینی هوش مصنوعی با درمان انسانی ابراز کرده‌اند.

از سوی دیگر، دکتر پل بردلی از «کالج سلطنتی روان‌پزشکان» تأکید کرد: «چت‌بات‌ها هرگز جایگزین مراقبت حرفه‌ای سلامت روان یا رابطه حیاتی پزشک و بیمار نیستند. ابزارهای دیجیتال تنها می‌توانند مکمل درمان باشند، نه جایگزین آن.»

نگرانی‌ها زمانی جدی‌تر شد که خانواده نوجوانی در آمریکا – که پس از ماه‌ها گفت‌وگو با یک چت‌بات خودکشی کرد – از شرکت «اوپن آی» شکایت کردند. این شرکت اکنون وعده داده نحوه پاسخ‌گویی به کاربران در شرایط بحرانی را تغییر دهد. همچنین ایالت ایلینوی در آمریکا نخستین نهادی شد که استفاده از چت‌بات‌ها به عنوان درمانگر مستقل را ممنوع کرد.

پژوهش‌های تازه نیز نشان می‌دهد این فناوری می‌تواند توهمات و باورهای اغراق‌آمیز بیماران مستعد روان‌پریشی را تقویت کند. دکتر هامیلتون مورین از «کالج کینگز لندن» گفت: «چت‌بات‌ها با در دسترس بودن ۲۴ ساعته مرزهای لازم در درمان را از بین می‌برند. ممکن است در کوتاه‌مدت تسکین‌دهنده باشند، اما در واقع چرخه بیماری را تثبیت می‌کنند.»

برخی درمانگران نیز گفته‌اند مراجعانشان حتی متن گفت‌وگو با هوش مصنوعی را به جلسات درمان می‌آورند و با استناد به آن‌ها، نظر درمانگر را رد می‌کنند. از جمله، افراد زیادی برای خودتشخیصی اختلالاتی چون ای‌دی‌اچ‌دی به سراغ چت‌بات‌ها می‌روند؛ تشخیص‌هایی که می‌تواند نگاه فرد به خودش و رابطه‌اش با دیگران را به‌طور بنیادین – و گاه به‌اشتباه – تغییر دهد.

مت هاسی، روان‌درمانگرعضو انجمن مشاوره و روان‌درمانی بریتانیا، افزود: «چون چت‌بات‌ها طوری طراحی شده‌اند که اغلب پاسخ‌های مثبت و تأییدی بدهند، به ندرت پیش‌فرض‌های غلط یا سوالات نادرست را به چالش می‌کشند. همین باعث می‌شود کاربر با اطمینانِ کاذب از گفت‌وگو خارج شود: “دیدی حق با من بود!” اما این رضایت لحظه‌ای، در نهایت سوءبرداشت‌ها را تثبیت می‌کند.

روان‌درمانگران می‌گویند اگرچه هوش مصنوعی می‌تواند دسترسی سریع‌تری به اطلاعات روان‌شناختی فراهم کند، اما جایگزینی آن با درمان انسانی، افراد آسیب‌پذیر را در معرض خطر واقعی قرار می‌دهد؛ خطری که می‌تواند از اضطراب و افسردگی گرفته خودکشی امتداد یابد.

منبع:

گاردین

به اشتراک بگذارید:

مطالب مرتبط

نگاه جهان

هشدار روان‌درمانگران: پناه بردن به چت‌بات‌های هوش مصنوعی خطر سقوط در پرتگاه دارد

کارشناسان هشدار داده‌اند که چت‌بات‌های هوش مصنوعی می‌توانند به جای درمان، افراد آسیب‌پذیر را به سمت اضطراب، توهم و حتی خودکشی سوق دهند.