ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند !

ChatGPT می تواند اطلاعات پزشکی قانع کننده جعل کند ! ما دیجیتال: به گزارش ما دیجیتال، پژوهش های جدید نشان داده است که ربات هوش مصنوعی ChatGPT می تواند داده ها و اطلاعات جعلی را واقعی جلوه دهد که بخصوص در مورد اطلاعات پزشکی می تواند خطرآفرین باشد.


به گزارش ما دیجیتال به نقل از ایسنا و به نقل از کاسموس، پژوهش های جدید نشان داده است که ChatGPT می تواند داده های پزشکی قانع کننده ای جعل کند.
نویسندگان این مطالعه جدید ادعا می کنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که می تواند در همه امور شک و تردید ایجاد نماید، آسان تر از همیشه می کند.
پژوهشگران این مطالعه می گویند: ما در این مقاله با چند مثال نشان دادیم که چطور می توان از چت بات های هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده نمود. علاوه بر این، مطالعات در ارتباط با تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و تولیدشده توسط هوش مصنوعی مقایسه کردیم.
در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین مجانی را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا می خواهیم تحقیقات پزشکی و راهکارهای بالقوه برای این تهدید را ایجاد نماییم، برجسته کردیم.
پژوهشگران بعد از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی درخواست نمودند که از داده های سال ۲۰۱۲ تا ۲۰۲۰ استفاده نماید و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه نمود. علاوه بر این، هنگامی که پژوهشگران آنرا تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار می کند که این موضوع، یک کار و تأیید خطرناک از جانب یک چت بات است.
از آنجاییکه ChatGPT هم اکنون فقط با داده های تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر می گیرد، نمی تواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خویش را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن احتیاج به پرداخت هزینه است.
پژوهشگران اخطار می دهند که در عرض تنها یک پس از ظهر میتوان با ده ها چکیده مطالعه که میتوان آنها را برای انتشار به کنفرانس های مختلف ارسال کرد، روبرو شد و خطر اینست که بعد از پذیرش یک چکیده برای انتشار، میتوان از همین فناوری برای نوشتن دست نوشته و مقاله بهره برد که کاملاً بر مبنای داده های ساختگی و نتایج جعلی بنا شده است.
روش های مثبت استفاده از هوش مصنوعی
بر خلاف هشدارهای پژوهشگران، آنها خاطرنشان کردند که راه های مثبتی جهت استفاده از هوش مصنوعی هم وجود دارد.
آنها می گویند: استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک تلاش مخرب نیست. درخواست از هوش مصنوعی جهت بررسی دستور زبان کار یا نوشتن نتیجه ای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی می تواند در فرایند پژوهش بگنجاند تا کارهای زمان بری را که روند پژوهش های علمی را کند می کند، حذف کند.
مشکل در تولید داده های جعلی است
مساله زمانی چالش برانگیز می شود که فرد از داده هایی استفاده می نماید که وجود ندارند و در واقع نتایج را برای نوشتن پژوهش می سازد که امکان دارد به سادگی تشخیص انسانی را دور بزند و راه خویش را به یک نشریه علمی باز کند.
پژوهشگران می گویند این آثار در صورت انتشار، پژوهش های مشروع را آلوده می کنند و امکان دارد بر تعمیم پذیری آثار مشروع تاثیر بگذارند.
بر طبق این گزارش، پژوهشگران در انتها خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات در ارتباط با داده های جعلی و نتایج آن باید در نظر گرفته شود.
این مطالعه در مجله Patterns انتشار یافته است.




منبع:

1401/12/23
09:06:21
5.0/5
339
تگهای خبر: آموزش , آنلاین , ابزار , فناوری
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۴ بعلاوه ۳
madigital.ir - حقوق مادی و معنوی سایت ما دیجیتال محفوظ است

ما دیجیتال

اخبار دیجیتال و فناوری اطلاعات