به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ،
یک مطالعه نشان داده است که ChatGPT به نظر می رسد “روش کنار بالین” بهتری نسبت به برخی پزشکان دارد – حداقل زمانی که توصیه های کتبی آنها برای کیفیت و همدلی رتبه بندی می شود.
به گفته نویسندگان این کار، این یافتهها پتانسیل نقش دستیاران هوش مصنوعی در پزشکی را نشان میدهد که پیشنهاد میکنند چنین عواملی میتوانند به ایجاد ارتباط پزشکان با بیماران کمک کنند. دکتر جان آیرز، از دانشگاه کالیفرنیا سن دیگو، گفت: “فرصت های بهبود مراقبت های بهداشتی با هوش مصنوعی بسیار زیاد است.”
با این حال، دیگران خاطرنشان کردند که این یافتهها به این معنا نیست که ChatGPT در واقع پزشک بهتری است و با توجه به اینکه ربات چت تمایل به تولید “حقایق” غیرواقعی دارد، نسبت به واگذاری مسئولیت بالینی هشدار دادند.
این مطالعه که در ژورنال JAMA Internal Medicine منتشر شد، از دادههای فروم AskDocs Reddit استفاده کرد که در آن اعضا میتوانند سؤالات پزشکی را ارسال کنند که توسط متخصصان مراقبت بهداشتی تأیید شده پاسخ داده میشود. تیم به طور تصادفی از 195 تبادل از AskDocs نمونه برداری کرد که در آن یک پزشک تایید شده به یک سوال عمومی پاسخ داد. سپس سوالات اولیه برای مدل زبان هوش مصنوعی ChatGPT مطرح شد که از آن خواسته شد پاسخ دهد. گروهی متشکل از سه متخصص مراقبتهای بهداشتی دارای مجوز، که نمیدانستند پاسخ از سوی یک پزشک انسانی است یا ChatGPT، پاسخها را برای کیفیت و همدلی رتبهبندی کردند.
به طور کلی، پانل پاسخهای ChatGPT را به پاسخهایی که توسط یک انسان داده میشود، در ۷۹ درصد مواقع ترجیح میدهند. پاسخهای ChatGPT نیز در ۷۹ درصد مواقع، در مقایسه با ۲۲ درصد از پاسخهای پزشکان، با کیفیت خوب یا بسیار خوب رتبهبندی شدند، و ۴۵ درصد از پاسخهای ChatGPT در مقایسه با تنها ۵ درصد از پاسخهای پزشکان، همدلانه یا بسیار همدلانه رتبهبندی شدند.
دکتر کریستوفر لانگهورست، از UC San Diego Health، گفت: «این نتایج نشان میدهد که ابزارهایی مانند ChatGPT میتوانند به طور موثر توصیههای پزشکی با کیفیت بالا و شخصیسازی شده را برای بررسی توسط پزشکان تهیه کنند، و ما این فرآیند را در UCSD Health آغاز میکنیم.»
پروفسور جیمز داونپورت، از دانشگاه باث، که در این تحقیق شرکت نداشت، میگوید: «این مقاله نمیگوید که ChatGPT میتواند جایگزین پزشکان شود، اما به طور کاملاً قانونی، تحقیقات بیشتر در مورد اینکه آیا و چگونه ChatGPT میتواند به پزشکان کمک کند یا خیر، میطلبد. در نسل پاسخ.»
برخی اشاره کردند که با توجه به اینکه ChatGPT به طور خاص برای دوست داشتنی بودن بهینه شده بود، تعجب آور نبود که متنی را نوشت که همدلانه به نظر می رسید. همچنین نسبت به پزشکان انسانی پاسخهای طولانیتر و پرحرفتر میدهد، که میتوانست در رتبهبندی بالاتر آن نقش داشته باشد.
برخی دیگر به دلیل تمایل آنها به تولید “حقایق” ساختگی، نسبت به تکیه بر مدل های زبان برای اطلاعات واقعی هشدار دادند.
پروفسور آنتونی کوهن، از دانشگاه لیدز، گفت که استفاده از مدلهای زبانی بهعنوان ابزاری برای پیشنویس پاسخها یک «مورد استفاده معقول برای پذیرش زودهنگام» است، اما حتی در نقش پشتیبانی نیز باید با دقت از آنها استفاده کرد. او میگوید: «نشان داده شده است که انسانها بیش از حد به پاسخهای ماشین اعتماد میکنند، به ویژه زمانی که اغلب درست هستند، و ممکن است یک انسان همیشه به اندازه کافی هوشیار نباشد که به درستی پاسخ یک ربات چت را بررسی کند. “این نیاز به مراقبت دارد، شاید با استفاده از پاسخ های اشتباه مصنوعی تصادفی برای آزمایش هوشیاری.”
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز ایران و جهان آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.