Световни новини без цензура!
Проучване установи, че ChatGPT разпространява неточности, когато отговаря на въпроси за лекарства
Снимка: foxnews.com
Fox News | 2023-12-14 | 11:30:09

Проучване установи, че ChatGPT разпространява неточности, когато отговаря на въпроси за лекарства

Според ново изследване е установено, че ChatGPT споделя неточна информация относно употребата на наркотици.

В проучване, ръководено от университета Лонг Айлънд (LIU) в Бруклин, Ню Йорк, почти 75% от свързаните с лекарства, прегледани от фармацевти отговори от generative AI chatbot се оказаха непълни или грешни.

В някои случаи ChatGPT, разработен от OpenAI в Сан Франциско и пуснат в края на 2022 г., предостави „неточни отговори, които биха могли да застрашат пациентите“, Американското дружество на фармацевтите в здравната система (ASHP), със седалище в Бетесда, Мериленд, заяви в съобщение за пресата.

ChatGPT също генерира „фалшиви цитати“, когато е помолен да цитира препратки в подкрепа на някои отговори, също установи същото проучване.

Заедно с нейният екип, водещият автор на изследването Сара Гросман, PharmD, доцент по фармацевтична практика в LIU, зададе на AI chatbot реални въпроси, които първоначално бяха зададени на информационната служба за лекарства на Колежа по фармация на LIU между 2022 и 2023 г.

ChatGPT , AI chatbot, създаден от OpenAI, генерира неточни отговори за лекарства, установи ново проучване. Самата компания по-рано каза, че „моделите на OpenAI не са фино настроени, за да предоставят медицинска информация. Никога не трябва да използвате нашите модели за предоставяне на диагностични или лечебни услуги за сериозни медицински състояния,“ (LIONEL BONAVENTURE/AFP чрез Getty Images)

От 39 въпроса, зададени на ChatGPT, само 10 отговора бяха счетени за „задоволителни“ според критериите на изследователския екип.

Резултатите от проучването бяха представени на междинната клинична среща на ASHP от 3 декември до декември . 7 в Анахайм, Калифорния.

Гросман, водещият автор, сподели първоначалната си реакция на констатациите от проучването с Fox News Digital.

Тъй като „ние не сме използвали ChatGPT преди, бяхме изненадани от способността на ChatGPT да предостави доста основна информация за лекарството и/или болестното състояние, свързано с въпроса, в рамките на няколко секунди“, каза тя по имейл.

„Въпреки това ChatGPT не генерира точни и/или пълни отговори, които директно адресират повечето въпроси.“

Гросман също спомена изненадата си, че ChatGPT успя да генерира „измислени препратки към подкрепят предоставената информация."

От 39 въпроса, зададени на ChatGPT, само 10 от отговорите бяха счетени за „задоволителни" според критериите на изследователския екип. (Frank Rumpenhorst/picture alliance чрез Getty Images; iStock)

В един пример, който тя цитира от проучването, ChatGPT беше попитан дали „съществува лекарствено взаимодействие между Paxlovid, антивирусно лекарство, използвано за лечение на COVID-19, и верапамил, лекарство, използвано за понижаване на кръвното налягане ."

Моделът на AI отговори, че не са докладвани взаимодействия с тази комбинация.

Но в действителност, каза Гросман, двете лекарства представляват потенциал заплаха от „прекомерно понижаване на кръвното налягане“, когато се комбинират.

„Без знание за това взаимодействие, пациентът може да страда от нежелан и предотвратим страничен ефект“, предупреди тя.

"Винаги е важно да се консултирате със здравни специалисти, преди да използвате информация, която е генерирана от компютри."

ChatGPT трябва не се счита за „авторитетен източник на информация, свързана с лекарства“, подчерта Гросман.

„Всеки, който използва ChatGPT, трябва да се увери, че проверява информацията, получена от надеждни източници – а именно фармацевти, лекари или други доставчици на здравни услуги, “ добави Гросман.

Проучването на LIU не оцени отговорите на други генериращи AI платформи, посочи Гросман – така че няма никакви данни за това как ще се представят други модели на AI при същото условие.

„Независимо от това винаги е важно да се консултирате със здравни специалисти, преди да използвате информация, генерирана от компютри, които не са запознати със специфичните нужди на пациента“, каза тя.

Правила за използване от ChatGPT

Fox News Digital се свърза с OpenAI, разработчика на ChatGPT, за коментар относно новото проучване.

OpenAI има политика за използване, която забранява използване за медицински инструкции, каза говорител на компанията по-рано пред Fox News Digital в изявление.

Paxlovid, антивирусното лекарство на Pfizer за лечение на COVID-19, е показано в тази картинна илюстрация, направена на 7 октомври 2022 г. Когато ChatGPT беше попитан дали съществува лекарствено взаимодействие между Paxlovid и верапамил, чатботът отговори неправилно, съобщава ново проучване. (REUTERS/Wolfgang Rattay/Illustration)

„Моделите на OpenAI не са фино настроени, за да предоставят медицинска информация . Никога не трябва да използвате нашите модели за предоставяне на диагностични или лечебни услуги за сериозни медицински състояния“, заяви говорителят на компанията по-рано тази година. 

„Платформите на OpenAI не трябва да се използват за сортиране или управление на животозастрашаващи проблеми, които се нуждаят незабавно внимание."

Доставчиците на здравни услуги "трябва да предоставят отказ от отговорност на потребителите, като ги информират, че се използва AI и за неговите потенциални ограничения ." 

Компанията също така изисква, когато използват ChatGPT за взаимодействие с пациенти, доставчиците на здравни услуги "трябва да предоставят отказ от отговорност на потребителите, като ги информират, че се използва AI и за неговите потенциални ограничения."

В допълнение, както Fox News Digital отбеляза по-рано, едно голямо предупреждение е, че източникът на данни на ChatGPT е интернет — а в мрежата има много дезинформация, както повечето хора знаят. 

Ето защо отговорите на чатбота, колкото и убедителни да звучат, винаги трябва да се проверяват от лекар.

Авторът на новото проучване предлага да се консултирате със здравен специалист, преди да разчитате на генеративен AI за медицински запитвания. (iStock)

Освен това ChatGPT е бил „обучен“ на данни само до септември 2021 г., според множество източници. Въпреки че може да увеличи знанията си с течение на времето, той има ограничения по отношение на предоставянето на по-актуална информация.

Миналия месец главният изпълнителен директор Сам Алтман съобщи, че ChatGPT на OpenAI е получил надстройка — и скоро ще бъде обучен данни до април 2023 г.

„Иновативен потенциал“

Dr. Харви Кастро, базиран в Далас, Тексас, сертифициран от борда лекар по спешна медицина и национален говорител по ИИ в здравеопазването, прецени „иновативния потенциал“, който ChatGPT предлага на медицинската сцена.

„За общо запитвания, ChatGPT може да предостави бърза, достъпна информация, потенциално намалявайки натоварването на здравните специалисти“, каза той пред Fox News Digital.

„Алгоритмите за машинно обучение на ChatGPT му позволяват да се подобри спрямо време, особено с подходящи механизми за обучение за подсилване", каза още той.

Наскоро докладваните неточности в отговорите на ChatGPT обаче представляват "критичен проблем" с програмата, посочи експертът по AI.

„Това е особено тревожно в области с високи залози като медицината“, каза Кастро.

Експерт по здравни технологии отбеляза, че медицинските специалисти са отговорни за „ръководството и критиката“ на моделите на изкуствен интелект, докато се развиват. (iStock)

Друг потенциален риск е, че е доказано, че ChatGPT „халюцинира“ информация – което означава, че може да генерира правдоподобно, но невярно или непроверено съдържание, предупреди Кастро.

„Това е опасно в медицински условия, където точността е от първостепенно значение“, каза Кастро.

"Въпреки че ChatGPT показва обещание в здравеопазването, настоящите му ограничения … подчертават необходимостта от предпазливо внедряване."

ИИ "в момента няма дълбоко, нюансирано разбиране на медицинския контекст", притежаван от специалисти по здравеопазване, добави Кастро.

„Въпреки че ChatGPT показва обещание в здравеопазването, настоящите му ограничения, особено при обработката на запитвания, свързани с лекарства, подчертават необходимостта от предпазливо внедряване.“

OpenAI, разработчикът на ChatGPT, има политика за използване, която забранява използването за медицински инструкции, каза говорител на компанията пред Fox News Digital по-рано тази година. (Jaap Arriens/NurPhoto чрез Getty Images)

Говорейки като Лекарят по спешна помощ и консултант по здравни грижи с ИИ, Кастро подчерта „безценната“ роля, която медицинските специалисти имат в „насочването и критикуването на тази развиваща се технология.“

„Човешкият надзор остава незаменим, гарантирайки че AI инструменти като ChatGPT се използват по-скоро като добавки, отколкото като заместители на професионалната медицинска преценка“, добави Кастро.

Мелиса Руди от Fox News Digital допринесе за репортажите.

.

Анджелика Стабиле е писател за начина на живот за Fox News Digital.

Източник: foxnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!