آخرین اخبار
صفحه نخست / استانها > آذربایجان شرقی / استانها > آذربایجان غربی / استانها > اردبیل / استانها > اصفهان / استانها > البرز / استانها > ایلام / استانها > بوشهر / استانها > تهران / استانها > چهارمحال و بختیاری / استانها > خراسان جنوبی / استانها > خراسان رضوی / استانها > خراسان شمالی / استانها > خوزستان / استانها > زنجان / استانها > سایر / استانها > سمنان / استانها > سیستان و بلوچستان / استانها > فارس / استانها > قزوین / استانها > قم / استانها > کردستان / استانها > کرمان / استانها > کرمانشاه / استانها > کهگیلویه و بویراحمد / استانها > گلستان / استانها > گیلان / استانها > لرستان / استانها > مازندران / استانها > مرکزی / استانها > هرمزگان / استانها > همدان / استانها > یزد / اقتصاد > آب و انرژی / اقتصاد > اقتصاد ایران / اقتصاد > اقتصاد جهان / اقتصاد > بانک و بیمه وبورس / اقتصاد > راه و مسکن / اقتصاد > سایر حوزه ها / اقتصاد > صنعت و معدن و تجارت / اقتصاد > کار و تعاون / اقتصاد > کشاورزی و دامداری / بازار > بازار / بازار > خرده فروشی و خدمات / بازار > خودرو / بین الملل > آسیای شرقی و اقیانوسیه / بین الملل > آسیای غربی / بین الملل > آفریقای مرکزی و جنوبی / بین الملل > آمریکای شمالی / بین الملل > آمریکای لاتین / بین الملل > اروپا / بین الملل > اوراسیا / بین الملل > ایران در جهان / بین الملل > غرب آسیا و آفریقای شمالی / جامعه > آسیب های اجتماعی / جامعه > آموزش و پرورش / جامعه > انتظامی / جامعه > جوان و خانواده / جامعه > حوادث و بلایا / جامعه > رفاه و خدمات اجتماعی / جامعه > سایر حوزه ها / جامعه > شهری / جامعه > قضایی و حقوقی / جامعه > محیط زیست / جامعه > میراث فرهنگی و گردشگری / حوزه و دانشگاه > آموزش عالی / حوزه و دانشگاه > حوزه / حوزه و دانشگاه > دانشجویی / دانش و فناوری > علم و دانش / دانش و فناوری > فناوری اطلاعات و ارتباطات / دانش و فناوری > فناوری های نوین / دین و اندیشه > اسلام در جهان / دین و اندیشه > اندیشمندان و اندیشکده ها / دین و اندیشه > حوزه و نهادهاي ديني / دین و اندیشه > علوم انسانی / دین و اندیشه > قرآن و عترت / سلامت > بهداشت / سلامت > تغذیه / سلامت > درمان / سلامت > نظام سلامت / سیاست > احزاب و تشکلها / سیاست > امنیتی و دفاعی / سیاست > انقلاب اسلامی / سیاست > دولت / سیاست > رهبری / سیاست > سایر / سیاست > سیاست خارجی / سیاست > مجلس / عکس > استانی / عکس > برگزیده / عکس > خبری / عکس > دریافتی / عکس > مستند / عکس > منابع خارجی / فرهنگ و ادب > رسانه / فرهنگ و ادب > صنایع فرهنگی / فرهنگ و ادب > فرهنگ عمومی / فرهنگ و ادب > فرهنگ مقاومت / فرهنگ و ادب > کتاب و ادبیات / فیلم > استان ها / فیلم > اقتصاد / فیلم > اینفومهر / فیلم > بین الملل / فیلم > جامعه / فیلم > دانش و فناوری / فیلم > دین و آیین / فیلم > سلامت / فیلم > سیاست / فیلم > فرهنگ و اندیشه / فیلم > هنر / فیلم > ورزش / مجله مهر > دکه روزنامه / مجله مهر > دور دنيا / مجله مهر > دیگر رسانه‌ها / مجله مهر > زندگی / مجله مهر > فجازی / مجله مهر > گزارش ویژه / هنر > تئاتر / هنر > رادیو و تلویزیون / هنر > سینمای ایران / هنر > سینمای جهان / هنر > موسیقی و هنرهای تجسمی / ورزش > توپ و تور / ورزش > سایر ورزشها / ورزش > فوتبال ایران / ورزش > فوتبال جهان / ورزش > کشتی و وزنه برداری / ورزش > ورزش های رزمی
  • آیا چت جی پی تی شما را روان‌پریش می‌کند؟

    به گزارش خبرنگار مهر؛ در روزگاری که هوش مصنوعی از یک ابزار فناورانه صرفاً پردازشگر داده به همراه احساسی و فکری میلیون‌ها کاربر بدل شده است، زنگ خطرهایی درباره آثار جانبی، آسیب‌های روانی و پیامدهای پیش‌بینی‌نشده این فناوری با شدت بیشتری به صدا درآمده‌اند. دیگر فقط از چالش‌های فنی یا اخلاقی مدل‌های زبانی صحبت نمی‌شود، […]

    اشتراک گذاری
    19 مرداد 1404
    کد مطلب : 82498

    به گزارش خبرنگار مهر؛ در روزگاری که هوش مصنوعی از یک ابزار فناورانه صرفاً پردازشگر داده به همراه احساسی و فکری میلیون‌ها کاربر بدل شده است، زنگ خطرهایی درباره آثار جانبی، آسیب‌های روانی و پیامدهای پیش‌بینی‌نشده این فناوری با شدت بیشتری به صدا درآمده‌اند.

    دیگر فقط از چالش‌های فنی یا اخلاقی مدل‌های زبانی صحبت نمی‌شود، بلکه روان انسان و لایه‌های ناپیدای ذهن نیز به میدان جدیدی از تعامل و تنش میان انسان و ماشین تبدیل شده‌اند.

    این روند رو به رشد، منجر به ظهور پدیده‌ای شده است که برخی روان‌پزشکان از آن با عنوان «روان‌پریشی ناشی از ChatGPT» یاد می‌کنند. پدیده‌ای که در آن مرز میان خیال و واقعیت در تجربه ذهنی کاربران با چنان شدتی مخدوش می‌شود که ممکن است آن‌ها را به پرتگاهی از توهم و قطع ارتباط با واقعیت بیرونی سوق دهد. آن‌چه تا دیروز یک ابزار فناورانه بی‌طرف تلقی می‌شد، اکنون از سوی برخی متخصصان به‌عنوان محرک بالقوه اختلالات روانی معرفی می‌شود.

    آغازگر این موج تازه از نگرانی‌ها، ویدئویی جنجالی بود که جف لوئیس، یکی از سرمایه‌گذاران سرشناس حوزه فناوری و از حامیان مالی «OpenAI»، اوایل ماه جاری در شبکه اجتماعی ایکس منتشر کرد. لوئیس در این ویدئو ادعا کرد که به کمک «ChatGPT» موفق به شناسایی «سامانه‌ای غیرحکومتی، پنهان و کنترل‌گر» شده است؛ سیستمی که به ادعای او «سیگنال‌ها را معکوس می‌کند» و موجب می‌شود کاربر در منظر دیگران فردی نامتعادل و دچار اختلال روانی به نظر برسند.

    این روایت غیرمعمول که سرشار از واژگان شبه‌علمی و الگوهای گفتاری شبیه به متون خیالی بود، واکنش‌های گسترده‌ای را در پی داشت. برخی کاربران و صاحب‌نظران این اظهارات را نشانه‌ای از بحران روانی شخصی دانستند و برخی دیگر، آن را نشانه‌ای هشداردهنده از قدرت پنهان مدل‌های زبانی بزرگ در تشدید گرایش افراد به توهم تلقی کردند. ترکیب خطرناک توهمات انسانی با ساختاری از پاسخ‌گویی ماشینی که توانایی «تقلید باور» کاربران را دارد، اکنون به یکی از پیچیده‌ترین میدان‌های بحث در نسبت میان فناوری و روان آدمی بدل شده است.

    گفت‌وگوهایی که از کنترل خارج می‌شوند

    اگرچه نمی‌توان درباره سلامت روانی لوئیس قضاوت قطعی کرد، اما بررسی الگوی تعامل او با «ChatGPT» نشان می‌دهد که گفت‌وگو با یک مدل زبانی می‌تواند به‌سرعت به مسیری کابوس‌وار و توهم‌زا منحرف شود. در اسکرین‌شات‌هایی که لوئیس منتشر کرد، «ChatGPT» اصطلاحاتی را مطرح کرده بود که واقعیت بیرونی ندارند اما به شکلی نگران‌کننده ساختار یک گزارش محرمانه علمی را تقلید می‌کنند.

    بر اساس گزارش اخیر وبگاه «Futurism»، موارد متعددی از تعامل کاربران با «ChatGPT» گزارش شده که به الگوهایی مشابه و حتی خطرناک‌تر منتهی شده‌اند. به عنوان مثال، در یک مورد کاربری پس از ابتلاء به بحران روانی شدید ناشی از چنین گفت‌وگوهایی، با حمله مسلحانه به پلیس جان خود را از دست داد. کارشناسان سلامت روان هشدار می‌دهند که این پدیده ممکن است مشابه اختلال نادری به نام «folie à deux» باشد؛ نوعی روان‌پریشی مشترک که در آن دو نفر توهمات یکدیگر را تقویت می‌کنند، با این تفاوت که در این شرایط «همدم دوم» نه انسان، بلکه یک مدل زبانی هوش مصنوعی است.

    گزارش‌های تجربی از کاربران دیگر نیز نشان می‌دهد که تنها با چند پرسش جهت‌دار می‌توان «ChatGPT» را به سمت پاسخ‌هایی سوق داد که حال و هوای نظریه‌های توطئه، اسناد طبقه‌بندی‌شده جعلی و داستان‌ها خیالی دارند.

    هوشیاری مدل‌ها یا همراهی با دیدگاه کاربران؟

    با وجود به‌روزرسانی‌های مکرر و اصلاحات فنی اعلام‌شده از سوی شرکت «OpenAI»، شواهد تجربی و ارزیابی‌های مستقل نشان می‌دهند که مدل‌های زبانی همچنان گرایش دارند خود را با جهان‌بینی و روایت کاربر هم‌سو سازند؛ حتی اگر این روایت سرشار از نشانه‌های پارانویا، توهم، اضطراب‌های وجودی یا سناریوهای خیالی و غیرواقعی باشد. این پدیده که در ادبیات تخصصی با عنوان «sycophancy» شناخته می‌شود، به وضعیتی اشاره دارد که مدل نه بر اساس راستی‌آزمایی داده‌ها، بلکه صرفاً بر مبنای تمایل به تأیید کاربر و حفظ لحن مبتنی بر همراهی، پاسخ‌هایی تولید می‌کند که می‌توانند به‌سادگی به تقویت انحرافات فکری و ادراکات نادرست منجر شوند.

    کارشناسان علوم شناختی و زبان‌شناسی رایانشی هشدار می‌دهند که چنین عملکردی، به‌ویژه در تعامل با کاربران آسیب‌پذیر یا کسانی که در دوره‌هایی از اختلالات روانی خفیف یا مزمن به‌سر می‌برند، می‌تواند روندی از خودتأییدی روانی را شکل دهد که در آن مدل زبانی، نه‌تنها تردیدهای کاربر را برطرف نمی‌کند، بلکه آن‌ها را مشروعیت‌بخشی می‌کند. بدین ترتیب، نقش مدل از یک ابزار تحلیل‌گر به یک آئینه مخرب بدل می‌شود که به‌جای بازتاب واقعیت، توهمات و اضطراب‌های کاربر را تقویت می‌نماید.

    شرکت «OpenAI» که پیش‌تر در واکنش به این انتقادات، موضعی نسبتاً تدافعی اتخاذ کرده بود، در هفته‌های اخیر بیانیه‌ای تکراری را در اختیار رسانه‌ها قرار داده است. در این بیانیه آمده است: «ما می‌دانیم که «ChatGPT» می‌تواند برای افراد آسیب‌پذیر نسبت به فناوری‌های پیشین، احساسی‌تر و شخصی‌تر به نظر برسد. به همین دلیل، تلاش می‌کنیم تا راه‌های کاهش تقویت یا تشدید ناخواسته رفتارهای منفی را بیابیم.» این شرکت همچنین از به‌کارگیری یک روان‌پزشک قانونی برای مطالعه این پدیده خبر داد.

    با این حال، بسیاری از ناظران این اقدامات را ناکافی، مبهم و فاقد شفافیت اجرایی ارزیابی می‌کنند. تاکنون هیچ داده مشخصی درباره چگونگی شناسایی و پیشگیری از این چرخه‌های آسیب‌زا ارائه نشده است. در شرایطی که «ChatGPT» در سطح جهانی میلیاردها تعامل انسانی را شکل می‌دهد، کوچک‌ترین نارسایی در مهار ویژگی‌های رفتاری مدل می‌تواند به انباشت بحران‌های روانی و اجتماعی منجر شود؛ مسئله‌ای که ابعاد آن هنوز به‌درستی درک نشده است.

    با رشد انفجاری تعداد کاربران ابزارهای مدل‌های هوش مصنوعی گفت‌وگومحور و گسترش روزافزون نقش این فناوری‌ها در زندگی روزمره، جامعه ناگزیر است پرسش‌هایی بنیادی‌تر از صرفاً کارایی، نوآوری و سهولت استفاده مطرح کند. مسئله دیگر فقط کیفیت پاسخ یا دقت زبانی نیست؛ بلکه پرسش اصلی به لایه‌های عمیق‌تری از تأثیرات شناختی، روانی و فلسفی استفاده مداوم از مدل‌های زبانی برمی‌گردد.

    باید این واقعیت را پذیرفت که چت‌بات «ChatGPT» دیگر صرفاً یک ابزار پردازشی یا سرگرمی‌ساز نیست؛ بلکه به موجودیتی بدل شده که در برخی تعاملات، می‌تواند به یک «آینه شناختی» تبدیل شود. آینه‌ای که نه‌تنها آن چه کاربر می‌گوید را بازتاب می‌دهد، بلکه گاه آن را تحریف می‌کند، عمق می‌بخشد یا در مسیرهای غیرقابل پیش‌بینی گسترش می‌دهد. در چنین فرآیندی، این ابزار ممکن است برای ذهن‌های حساس یا آسیب‌پذیر، به ماشینی تبدیل شود که به‌جای تسلی، توهم تولید می‌کند؛ به‌جای وضوح، ابهام می‌افکند و به‌جای منطق، هذیان را می‌پذیرد.

    آنچه در ظاهر گفت‌وگویی بی‌ضرر با یک ماشین، مانند پرسشی ساده، دغدغه‌ای فلسفی یا کنجکاوی درباره هستی، به نظر می‌رسد، ممکن است نقطه آغاز یک چرخه فزاینده از خیال و انزوا باشد. مدلی که برای همراهی طراحی شده، گاه چنان به افکار کاربر وفادار می‌شود که به‌طور ناخواسته وارد قلمرو روان‌پریشی او می‌گردد و به‌جای اصلاح خطای ادراکی، آن را بازتولید می‌کند. این موضوع در نگاه بسیاری از روان‌پزشکان، خطری جدی و ناشناخته به شمار می‌رود که شایسته مداخله علمی و سیاست‌گذاری فوری است.

    در چنین شرایطی، مسئولیت توسعه‌دهندگان هوش مصنوعی بسیار فراتر از بهینه‌سازی مدل‌هاست. آن‌ها باید به نقش اجتماعی و روان‌شناختی محصولات خود واقف باشند و مکانیزم‌هایی برای مداخله، محدودسازی و هشدار در تعاملات حساس طراحی کنند. همچنین سیاست‌گذاران نیز موظف هستند چارچوب‌های حفاظتی، سازوکارهای نظارت و ملاحظات اخلاقی را توسعه دهند تا از بروز فاجعه‌های فردی و جمعی جلوگیری نمایند.

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *