سازمان بهداشت جهانی در خصوص خطرات هوش مصنوعی هشدار داد

مرکز مشاوره و خدمات کارآفرینی چترا

سازمان بهداشت جهانی درباره استفاده از چت ربات‌های ایجاد شده توسط هوش مصنوعی هشدار داد و خواستار هوش مصنوعی ایمن و اخلاقی برای سلامتی شد.

به گزارش پایگاه خبری موفقیت شناسی به نقل از ایرنا، این سازمان خواستار احتیاط در استفاده از ابزارهای مدل زبان بزرگ (LLM) تولید شده توسط هوش مصنوعی (AI) برای محافظت و ارتقای رفاه انسان، ایمنی و استقلال انسان و حفظ سلامت عمومی است.

ابزارهای مدل زبان بزرگ ها شامل برخی از پلتفرم های به سرعت در حال گسترش مانند ChatGPT، Bard، Bert و بسیاری دیگر هستند که درک، پردازش و تولید ارتباطات انسانی را تقلید می کنند. انتشار عمومی و استفاده آزمایشی رو به رشد آن‌ها برای مقاصد مرتبط با سلامت، هیجان قابل توجهی را در مورد پتانسیل حمایت از نیازهای بهداشتی مردم ایجاد می‌کند.

ضروری است که هنگام استفاده از ابزارهای مدل زبان بزرگ که به نام چت ربات های هوش مصنوعی شناخته می شوند، برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان یک ابزار پشتیبانی تصمیم، یا حتی برای افزایش ظرفیت تشخیصی در محیط‌های کم منابع برای محافظت از سلامت مردم و کاهش نابرابری، خطرات به دقت بررسی شوند.

در حالی که سازمان بهداشت جهانی مشتاق استفاده مناسب از فناوری‌ها، از جمله چت با هوش مصنوعی، برای حمایت از متخصصان مراقبت‌های بهداشتی، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد که احتیاط‌هایی که معمولاً برای هر فناوری جدید اعمال می‌شود، به طور مداوم در مورد ابزارهای مدل زبان بزرگ اعمال نمی‌شود. این شامل گسترش ارزش های کلیدی شفافیت، اخلاق مداری، مشارکت عمومی، نظارت متخصصان و ارزیابی دقیق است.

پذیرش سریع سیستم‌های آزمایش‌نشده می‌تواند منجر به اشتباهات کارکنان مراقبت‌های بهداشتی، آسیب رساندن به بیماران، کاهش اعتماد به هوش مصنوعی و در نتیجه تضعیف (یا تأخیر) مزایای بالقوه بلندمدت و استفاده از چنین فناوری‌هایی در سراسر جهان شود.

نگرانی هایی که مستلزم نظارت دقیق مورد نیاز برای استفاده از فناوری ها به روش های ایمن، مؤثر و اخلاقی هستند عبارتند از:

داده‌های مورد استفاده برای آموزش هوش مصنوعی ممکن است مغرضانه باشد و اطلاعات گمراه‌کننده یا نادرستی ایجاد کند که می‌تواند خطراتی برای سلامتی، برابری و فراگیر بودن ایجاد کند.

ابزارهای مدل زبان بزرگ ها پاسخ هایی را تولید می کنند که می توانند برای کاربر نهایی معتبر و قابل قبول به نظر برسند. با این حال، این پاسخ ها ممکن است کاملاً نادرست باشند یا حاوی خطاهای جدی باشند، به ویژه برای پاسخ های مرتبط با سلامت.

ممکن است ابزارهای مدل زبان بزرگ در مورد داده‌هایی که قبلاً برای چنین استفاده‌هایی رضایت ارائه نشده است آموزش ببینند و ممکن است از داده‌های حساس (از جمله داده‌های سلامت) که کاربر برای ایجاد پاسخ در اختیار یک برنامه کاربردی قرار می‌دهد، محافظت نکنند.

از چت بات ها می توان برای تولید و انتشار اطلاعات نادرست بسیار قانع کننده در قالب محتوای متنی، صوتی یا ویدیویی استفاده نادرست کرد که تشخیص آن برای عموم از محتوای سلامت قابل اعتماد دشوار است.

در حالی که بهداشت جهانی متعهد به استفاده از فناوری‌های جدید، از جمله هوش مصنوعی و سلامت دیجیتال برای بهبود سلامت انسان است، سازمان بهداشت جهانی توصیه می‌کند که سیاست‌گذاران از ایمنی و محافظت از بیمار اطمینان حاصل کنند، در حالی که شرکت‌های فناوری برای تجاری‌سازی ابزارهای مدل زبان بزرگ (چت بات های هوش مصنوعی) تلاش می‌کنند.

سازمان بهداشت جهانی پیشنهاد می‌کند که به این نگرانی‌ها رسیدگی شود، و شواهد واضحی از منافع قبل از استفاده گسترده از آنها در مراقبت‌های بهداشتی و پزشکی معمول، چه توسط افراد، چه ارائه‌دهندگان مراقبت‌ها یا مدیران سیستم سلامت و سیاست‌گذاران، اندازه‌گیری شود.

سازمان بهداشت جهانی بر اهمیت به کارگیری اصول اخلاقی و حکمرانی مناسب، همان‌طور که در راهنمای سازمان بهداشت جهانی، در مورد اخلاق و حکمرانی هوش مصنوعی برای سلامت، در هنگام طراحی، توسعه و استقرار هوش مصنوعی برای سلامت برشمرده شده است، تاکید می کند.

۶ اصل اصلی شناسایی شده توسط سازمان بهداشت جهانی عبارتند از: (۱) حفاظت از خودمختاری. (۲) ارتقاء رفاه انسان، ایمنی انسان، و منافع عمومی. (۳) شفافیت، توضیح پذیری و قابل فهم بودن را تضمین کند. (۴) مسئولیت پذیری و مسئولیت شناسی را تقویت کند. (۵) از فراگیری و برابری آن اطمینان حاصل شود. (۶) هوش مصنوعی پاسخگو و پایدار را ارتقا دهید.

پایان پیام/

اگر به کارآفرینی علاقه‌مند هستید از این رسانه دیدن کنید
منبع
ایرنا

پایگاه خبری موفقیت شناسی

هدف ما امیدآفرینی در جامعه و ایجاد حس خوب و مثبت است

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا