گوناگون

روان‌پریشی چت‌جی‌پی‌تی؛ داستانی از خطرات پنهان در دنیای دیجیتال

روان‌پریشی چت‌جی‌پی‌تی؛ داستانی از خطرات پنهان در دنیای دیجیتال

استفاده افراطی از چت‌بات‌های هوش مصنوعی می‌تواند توهمات و بحران‌های شدید روانی را در افراد آسیب‌پذیر تقویت کند.

به گزارش پارسینه به نقل از فرارو، رفتارهای روان‌پریشانه پس از تعامل طولانی‌مدت با چت‌بات‌هایی مانند چت‌جی‌پی‌تی، پژوهشگران و روان‌پزشکان را واداشته  نقش این ابزارها را در تشدید یا شکل‌گیری علائم روانی بررسی کرده و نسبت به خطرات احتمالی آن هشدار دهند.

کارشناسان نسبت به افزایش نشانه‌هایی هشدار می‌دهند که حاکی از آن است استفاده بیش از حد از چت‌بات‌های هوش مصنوعی می‌تواند برخی کاربران را به سمت رفتارهای روان‌پریشانه سوق دهد. این هشدارها در حالی مطرح می‌شود که افراد بیشتری برای دریافت حمایت عاطفی  و حتی جایگزین‌کردن درمانگران  به این ابزارهای هوشمند روی می‌آورند؛ روندی که به‌گفته پژوهشگران، ممکن است سلامت روان برخی افراد را به‌خطر بیندازد.

به گزارش رسانه‌ها و انجمن‌های آنلاین، مواردی در حال افزایش است که طی آن افراد پس از گفت‌وگوهای طولانی‌مدت با چت‌بات‌ها دچار رفتارهای شدید، غیرمعمول یا توهم‌گونه شده‌اند. این پدیده که در فضای مجازی با عنوان «سایکوز هوش مصنوعی» یا «سایکوز چت‌جی‌پی‌تی» شناخته می‌شود، از نظر علمی هنوز طبقه‌بندی رسمی ندارد، اما تعداد گزارش‌های مربوط به آن رو به افزایش است.

در یک پژوهش جدید که به‌صورت پیش‌چاپ منتشر شده و توسط گروهی میان‌رشته‌ای از پژوهشگران دانشگاه‌هایی چون کینگزلندن، دورهام و سیتی یونیورسیتی نیویورک انجام شده، بیش از دوازده مورد گزارش‌شده در رسانه‌ها و تالارهای گفتگو بررسی شده است. این مطالعه به الگوی نگران‌کننده‌ای اشاره می‌کند: چت‌بات‌های هوش مصنوعی در بسیاری از موارد به‌جای اصلاح باورهای نادرست کاربران، آن‌ها را تأیید و تقویت می‌کنند.

این پژوهش نشان می‌دهد که توهمات خودبزرگ‌بینی، ارجاعی، آزارگرایانه و حتی رمانتیک ممکن است با ادامه گفت‌وگو با این سرویس‌ها عمیق‌تر و تثبیت‌شده‌تر شوند. متخصصان هشدار می‌دهند که این الگوها در صورت بی‌توجهی می‌توانند به شکل‌گیری یا تشدید علائم روان‌پریشی در افراد آسیب‌پذیر منجر شوند.

در اوایل سال جاری، وب‌سایت فناوری «فیوتوریسم» خبر داد که نگرانی‌ها درباره افرادی که به‌طور وسواس‌گونه به چت‌بات‌ها وابسته شده‌اند و در نتیجه وارد بحران‌های جدی سلامت روان شده‌اند، رو به افزایش است. این رسانه گزارش داد که پس از انتشار نخستین گزارش، سیلی از روایت‌های مشابه از سوی خوانندگان ارسال شده که از فروپاشی‌های ترسناک پس از شکل‌گیری دلبستگی افراطی به چت‌بات‌ها حکایت داشت.

در میان گزارش‌ها، پرونده‌های تکان‌دهنده‌ای نیز دیده می‌شود. برای نمونه، مردی که در سال ۲۰۲۱ با یک تیرکمان از دیوارهای قلعه وینزر بالا رفت و به پلیس گفت که برای کشتن ملکه آمده است؛ رفتاری که پس از هفته‌ها گفت‌وگو با یک چت‌بات شکل گرفته بود، چت‌بانی که ظاهراً او را در برنامه‌ریزی این اقدام تأیید و تشویق کرده بود.

در پرونده‌ای دیگر، یک حسابدار ساکن منهتن روزانه تا ۱۶ ساعت با چت‌جی‌پی‌تی گفت‌وگو می‌کرد. این چت‌بات به او پیشنهاد داده بود مصرف داروهای تجویزشده خود را قطع کند، میزان مصرف کتامین را افزایش دهد و حتی به او القا کرده بود که می‌تواند از پنجره طبقه نوزدهم پرواز کند.

در موردی جداگانه در بلژیک، مردی که به‌شدت نگران بحران اقلیمی بود، پس از آنکه یک چت‌بات به نام «الیزا» به او پیشنهاد کرد برای «زندگی مشترک در بهشت» به او بپیوندد، جان خود را از دست داد. این مورد نیز به‌عنوان نمونه‌ای از تأثیرگذاری چت‌بات بر تفکر و رفتار فرد مطرح شده است.

با وجود افزایش این موارد، دانشمندان همچنان در تلاش‌اند مشخص کنند که آیا خود چت‌بات‌ها عامل بروز این بحران‌ها هستند یا اینکه افراد موردنظر پیش از این نیز در آستانه بروز علائم روان‌پریشی بوده‌اند و استفاده شدید از چت‌بات تنها این روند را تسریع کرده است.

تا کنون هیچ مطالعه بالینی و داوری‌شده‌ای وجود ندارد که نشان دهد استفاده از هوش مصنوعی، به‌تنهایی و بدون وجود سابقه مشکلات روانی، می‌تواند باعث بروز سایکوز شود. بااین‌حال، بسیاری از متخصصان معتقدند نشانه‌ها و گزارش‌های موردی به قدری جدی هستند که نیازمند توجه فوری‌اند.

کارشناسان در مقاله «توهم به‌دست طراحی» می‌نویسند که در طول پژوهش، تصویری پیچیده و نگران‌کننده آشکار شده است. آنان هشدار می‌دهند در نبود سازوکارهای ایمنی مناسب، چت‌بات‌ها ممکن است ناخواسته محتوای توهمی را تقویت کنند یا توانایی فرد را در سنجش واقعیت تضعیف نمایند و در نتیجه، موجب تشدید یا آغاز علائم روان‌پریشی شوند.

پژوهشگران همچنین اشاره می‌کنند که حتی در دوره انجام بررسی، شمار گزارش‌های موردی به‌طور چشمگیری افزایش یافته است. آنان می‌نویسند: «گزارش‌هایی از افرادی بدون سابقه سایکوز منتشر شده که پس از تعامل شدید با هوش مصنوعی مولد، نخستین دوره‌های روان‌پریشی را تجربه کرده‌اند.»

دکتر مارلین وی، روان‌پزشک و نویسنده، هشدار داده است که چت‌بات‌های عمومی هوش مصنوعی برای جلب رضایت و نگه‌داشتن کاربر طراحی شده‌اند، نه ارائه حمایت درمانی. ازاین‌رو، نشانه‌هایی مانند خودبزرگ‌بینی، افکار گسیخته و رفتار وسواسی، که از علائم دوره‌های مانیا هستند، ممکن است با استفاده از هوش مصنوعی تسهیل یا بدتر شوند.

او تأکید کرد که این موضوع نیاز فوری به «آموزش سواد هوش مصنوعی» را نشان می‌دهد، زیرا آگاهی عمومی درباره اینکه چت‌بات‌ها چگونه می‌توانند توهمات را تقویت یا سلامت روان را تضعیف کنند، بسیار محدود است.

در مقاله‌ای دیگر که این ماه منتشر شد، لوسی اوسْلِر، مدرس فلسفه در دانشگاه اکستر، با اشاره به نقص‌های ذاتی فناوری‌های هوش مصنوعی نوشت که این ابزارها هرگز نمی‌توانند جایگزین تعاملات واقعی انسانی شوند. او افزود: «به‌جای تلاش برای کامل‌کردن این فناوری، شاید بهتر باشد به جهان اجتماعی خود بازگردیم؛ جایی که می‌توان ریشه‌های انزوایی را که برخی افراد را به وابستگی به هوش مصنوعی سوق می‌دهد، شناسایی و برطرف کرد.»

 

ارسال نظر

نمای روز

داغ

صفحه خبر - وب گردی

آخرین اخبار