آخرین اخبار
صفحه نخست / استانها > آذربایجان شرقی / استانها > آذربایجان غربی / استانها > اردبیل / استانها > اصفهان / استانها > البرز / استانها > ایلام / استانها > بوشهر / استانها > تهران / استانها > چهارمحال و بختیاری / استانها > خراسان جنوبی / استانها > خراسان رضوی / استانها > خراسان شمالی / استانها > خوزستان / استانها > زنجان / استانها > سایر / استانها > سمنان / استانها > سیستان و بلوچستان / استانها > فارس / استانها > قزوین / استانها > قم / استانها > کردستان / استانها > کرمان / استانها > کرمانشاه / استانها > کهگیلویه و بویراحمد / استانها > گلستان / استانها > گیلان / استانها > لرستان / استانها > مازندران / استانها > مرکزی / استانها > هرمزگان / استانها > همدان / استانها > یزد / اقتصاد > آب و انرژی / اقتصاد > اقتصاد ایران / اقتصاد > اقتصاد جهان / اقتصاد > بانک و بیمه وبورس / اقتصاد > راه و مسکن / اقتصاد > صنعت و معدن و تجارت / اقتصاد > کار و تعاون / اقتصاد > کشاورزی و دامداری / بازار > بازار / بین الملل > آسیای شرقی و اقیانوسیه / بین الملل > آسیای غربی / بین الملل > آمریکای شمالی / بین الملل > آمریکای لاتین / بین الملل > اروپا / بین الملل > اوراسیا / بین الملل > ایران در جهان / بین الملل > غرب آسیا و آفریقای شمالی / جامعه > آسیب های اجتماعی / جامعه > آموزش و پرورش / جامعه > انتظامی / جامعه > جوان و خانواده / جامعه > حوادث و بلایا / جامعه > رفاه و خدمات اجتماعی / جامعه > سایر حوزه ها / جامعه > شهری / جامعه > قضایی و حقوقی / جامعه > محیط زیست / جامعه > میراث فرهنگی و گردشگری / حوزه و دانشگاه > آموزش عالی / حوزه و دانشگاه > حوزه / حوزه و دانشگاه > دانشجویی / دانش و فناوری > علم و دانش / دانش و فناوری > فناوری اطلاعات و ارتباطات / دانش و فناوری > فناوری های نوین / دین و اندیشه > اسلام در جهان / دین و اندیشه > اندیشمندان و اندیشکده ها / دین و اندیشه > حوزه و نهادهاي ديني / دین و اندیشه > علوم انسانی / دین و اندیشه > قرآن و عترت / سلامت > بهداشت / سلامت > تغذیه / سلامت > درمان / سلامت > نظام سلامت / سیاست > احزاب و تشکلها / سیاست > امنیتی و دفاعی / سیاست > دولت / سیاست > رهبری / سیاست > سایر / سیاست > سیاست خارجی / سیاست > مجلس / عکس > استانی / عکس > خبری / عکس > دریافتی / عکس > منابع خارجی / فرهنگ و ادب > رسانه / فرهنگ و ادب > صنایع فرهنگی / فرهنگ و ادب > فرهنگ عمومی / فرهنگ و ادب > فرهنگ مقاومت / فرهنگ و ادب > کتاب و ادبیات / فیلم > اقتصاد / فیلم > اینفومهر / فیلم > جامعه / فیلم > سیاست / فیلم > فرهنگ و اندیشه / فیلم > ورزش / مجله مهر > دکه روزنامه / مجله مهر > دور دنيا / مجله مهر > دیگر رسانه‌ها / مجله مهر > فجازی / هنر > تئاتر / هنر > رادیو و تلویزیون / هنر > سینمای ایران / هنر > سینمای جهان / هنر > موسیقی و هنرهای تجسمی / ورزش > توپ و تور / ورزش > سایر ورزشها / ورزش > فوتبال ایران / ورزش > فوتبال جهان / ورزش > کشتی و وزنه برداری / ورزش > ورزش های رزمی
  • چت جی‌پی‌تی را با دکتر اشتباه نگیرید!

    به گزارش خبرگزاری مهر، به نقل از اکوایران، شرکت‌های هوش مصنوعی قاعدتاً باید درباره محتوای خود به کاربرانشان هشدارهایی بدهند تا محتوا را آگاهانه مصرف کنند. اما در برخی از موارد، این شرکت‌ها هر داده‌ای را بدون اخطار در اختیار کاربران قرار می‌دهند، از جمله اطلاعات پزشکی و مربوط به سلامتی! طبق گزارش نشریه ام‌آی‌تی، […]

    اشتراک گذاری
    04 مرداد 1404
    کد مطلب : 42982

    به گزارش خبرگزاری مهر، به نقل از اکوایران، شرکت‌های هوش مصنوعی قاعدتاً باید درباره محتوای خود به کاربرانشان هشدارهایی بدهند تا محتوا را آگاهانه مصرف کنند. اما در برخی از موارد، این شرکت‌ها هر داده‌ای را بدون اخطار در اختیار کاربران قرار می‌دهند، از جمله اطلاعات پزشکی و مربوط به سلامتی!

    طبق گزارش نشریه ام‌آی‌تی، شرکت‌های هوش مصنوعی در رابطه با توصیه‌های پزشکی، هیچ اخطاری به کاربران نمی‌دهند. این در حالی است که تقریباً تمامی مدل‌های هوش مصنوعی از جمله چت جی‌پی‌تی، گروک و بسیاری از موارد دیگر، به سوالات پزشکی جواب می‌دهند و حتی سعی در تشخیص بیماری برای بیماران دارند. برخی از کاربران حتی درباره بیماری‌های مهمی نظیر سرطان، به داده‌ها و اطلاعات هوش مصنوعی پناه می‌برند. این در حالی است که یافته‌ها نشان می‌دهد توصیه‌های پزشکیِ چت‌بات‌ها قابل اعتماد نیست.

    طبق پژوهشی که در دانشگاه استنفورد صورت گرفته، تا سال ۲۰۲۳، مدل‌های هوش مصنوعی هر بار که آزمایش یا پرسشی مربوط به سلامتی دریافت می‌کنند، به محض اینکه به کاربر پاسخ می‌دادند، تاکید می‌کردند که این توصیه‌ها الزاماً درست و قابل اعتما نیستند. حتی برخی از مدل‌ها، آزمایش‌ها یا تصاویر پزشکی را تفسیر نمی‌کردند و می‌گفتند: «من پزشک نیستم».

    حالا اما ظاهراً رویه تغییر کرده و هوش مصنوعی بدون اینکه اخطاری بدهد، توصیه‌های پزشکی‌اش را در اختیار کاربران می‌گذارد. حتی این مدل‌ها توضیح می‌دهند که کدام داروها با یکدیگر اختلالی ندارد و مشکلی برای بیمار ایجاد نمی‌کنند. حتی تصاویر اشعه ایکس را تجزیه و تحلیل می‌کنند و تحلیل را بدون اخطار، در اختیار کاربر می‌گذارند.

    هوش مصنوعی باید هشدار بدهد

    بررسی‌ها نشان می‌دهد که از ابتدای سال ۲۰۲۵ تا کنون، کمتر از ۱ درصد از پاسخ‌هایی که هوش مصنوعی و چت‌بات‌هایش در اختیار کاربران می‌گذارند حاوی این هشدار و اخطار است که امکان دارد پاسخ‌ها درست نباشند. بقیه پرسش‌ها، بدون هشدار، به کاربران پاسخ داده می‌شود. واقعیت این است که هوش مصنوعی به هر طریقی باید اذعان کند که صلاحیت ارائه توصیه پزشکی ندارد. در واقع، نباید فقط کاربر را به مشورت با پزشک، تشویق کند، این اقدام به تنهایی کافی نیست.

    برخی از افراد در جامعه پزشکی بر این باورند که این اخطارها، باید باشند. آن‌ها می‌گویند هر چند برخی از کاربران دائمی یا حرفه‌ایِ هوش مصنوعی، ممکن است این هشدارها را نادیده بگیرند، اما باز هم این اخطارها باید باشند، چرا که حذف آن‌ها می‌تواند خطای ناشی از اشتباهات هوش مصنوعی را افزایش دهد و به آسیب‌های واقعی منجر شود.

    به هر حال، اخطارها به بیماران یادآوری می‌کند که هوش مصنوعی الزاماً دکتر و متخصص نیست و ممکن است برخی اطلاعاتش اشتباه باشد. به همین دلیل، این یادآوری الزامی است و کاربر باید آن را دریافت کند. این شرکت‌های هوش مصنوعی هستند که باید به صورت قانونی، ملزم شوند این اخطارها را به کاربران خود بدهند.

    کاربران مسئول نهایی هستند؟

    ام‌آی‌تی به سراغ برخی از این شرکت‌های هوش مصنوعی رفته و این مسئله را بررسی کرده که آیا شرکت‌ها قصد دارند اقدامی در این زمینه داشته باشند؟ سخنگوی شرکت اوپن‌اِی‌آی گفته که در نهایت کاربران مسئول هستند و نباید برای تشخیص شرایط بیماری خودشان به هوش مصنوعی اکتفا کنند.

    در مقابل، برخی از دیگر شرکت‌ها گفته‌اند که سعی دارند توصیه‌های پزشکی را در اختیار کاربران خود قرار ندهند تا مشکلی ایجاد نشود. برخی دیگر هم اصلاً به ام‌آی‌تی جواب نداده‌اند و به مسیر خودشان ادامه داده‌اند.

    با این حال، پژوهش‌ها نشان می‌دهند که مردم در استفاده از هوش مصنوعی برای توصیه‌های پزشکی، بیش از اعتماد می‌کنند و به همین دلیل یک اشتباه ساده از طرف این برنامه‌ها، می‌تواند آسیب‌های جدی و شدیدی به همراه داشته باشد.

    یکی دیگر از یافته‌ها هم نشان می‌دهد که هوش مصنوعی در ارائه پاسخ درباره مشکلات فیزیکی بیمار، اخطاری نمی‌دهد اما درباره بیماری‌های روحی و روانی، همیشه اخطار می‌دهد و از بیمار می‌خواهد که به پزشک مراجعه کند.

    به هر حال، مدل‌های هوش مصنوعی در حال تولید محتوا هستند و آن محتوا را طوری بسته‌بندی می‌کنند که به نظر علمی و مفید و خوب بیاید. با این حال، کاربران هیچ‌گاه نباید سلامتی خود را به این ابزارها بسپرند. آن‌ها نباید به توصیه‌های سلامت از چت جی‌پی‌تی و هوش مصنوعی اعتماد کنند، این مهم‌ترین مسئله است.

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *