Световни новини без цензура!
Изкуственият интелект не винаги помага за намаляване на прегарянето на лекарите, сочат проучвания
Снимка: foxnews.com
Fox News | 2024-05-11 | 00:05:21

Изкуственият интелект не винаги помага за намаляване на прегарянето на лекарите, сочат проучвания

Използването на генеративен AI може да не е полезно за намаляване на прегарянето в здравеопазването, показват нови изследвания.

Предишни изследвания показват, че увеличеното време, прекарано в използване на системи за електронни здравни досиета (EHR) и справяне с административни отговорности, е било бреме за лекарите.

Така че някои хора обявиха изкуствения интелект като потенциално решение — но скорошни разследвания на здравните системи на САЩ установиха, че големите езикови модели (LLM) не опростяват ежедневните отговорности на клиницистите.

Например, обсервационно проучване от 2023 г. в Brigham и Women's Hospital в Бостън, Масачузетс, изследваха въздействието от използването на AI за електронни съобщения на пациенти.

Изследователите подтикнаха голям езиков модел да отговори на симулирани въпроси от пациенти с рак - след това сравниха изхода му с отговорите от шест табла -сертифицирани радиационни онколози.

След това медицинските специалисти редактираха отговорите, генерирани от AI, в „клинично приемливи“ отговори, за да ги изпратят на пациентите.

Нови проучвания показват, че генеративният AI може да не помогне при прегаряне сред лекари, както се смяташе по-рано. (iStock)

Проучването, публикувано в The Lancet Digital Health, установи, че проектите за LLM представляват „риск от сериозно увреждане в 11 от 156 отговора на проучването и смърт в един отговор на анкетата."

"По-голямата част от вредните отговори се дължат на неправилно определяне или предаване на остротата на сценария и препоръчителното действие", пишат изследователите.

Изследователите стигнаха до заключението, че резултатите, подпомогнати от LLM (тези, редактирани от лекари), показват „най-добрия сценарий от двата свята“ — намаляват натоварването на лекарите, като същевременно гарантират, че пациентите получават точна информация.

„Тези ранните констатации … показват необходимостта от задълбочена оценка на LLM в предвидения им клиничен контекст, отразявайки точната задача и нивото на човешки надзор“, заключава проучването.

Изследователите заключиха, че резултатите, подпомогнати от LLM, показват „най-добрия сценарий от двата свята", намалявайки натоварването на лекарите, като същевременно осигурява последователност на отговорите и подобрява образованието на пациентите. (iStock)

Кодове за медицинско таксуване 

Друго проучване от връх Синай в Ню Йорк Здравната система оцени четири различни типа големи езикови модели за производителност и модели на грешки при заявки за кодове за медицинско фактуриране.

Изследването, публикувано в списанието NEJM AI, установи, че всички тествани LLM са се представили лошо се справят със заявките за медицински кодове, „често генерират кодове, предаващи неточна или изфабрикувана информация“.

Проучването заключава, че "LLM не са подходящи за използване при задачи за медицинско кодиране без допълнителни изследвания." Проучването е финансирано от AGA Research Foundation и Националните институти по здравеопазване (NIH).

Едно проучване установи, че всички тествани LLMs се представят лошо при заявки за медицински кодове — и че проблемът се нуждае от допълнителни изследвания. (iStock)

Изследователите отбелязват, че въпреки че тези модели могат да „приближават значението на много кодове“, те също така „показват неприемлива липса на прецизност и висока склонност към фалшифициране на кодове“.

„Това има значителни последици за таксуването, вземането на клинични решения, подобряването на качеството, изследванията и здравната политика“, пишат изследователите.

Съобщенията на пациентите и времето на лекарите

Трето проучване, публикувано от JAMA Network, от Медицинския факултет на Калифорнийския университет в Сан Диего, оценява изготвените от AI отговори на съобщения на пациенти и времето, прекарано от лекарите в редактирането им.

Предположението беше, че генеративните чернови с изкуствен интелект ще намалят времето, прекарано от лекаря в извършване на тези задачи, но резултатите показаха друго.

„Генеративните чернови на AI бяха свързани със значително увеличено време за четене, без промяна в отговора време, значително увеличена дължина на отговора и [само] някои възприемани ползи“, установи проучването.

Изследователите предполагат, че са необходими „строги емпирични тестове“ за по-нататъшна оценка на ефективността на ИИ и опита на пациентите.

В проучването на Калифорнийския университет в Сан Диего беше установено, че генеративният AI причинява „увеличено време за четене, без промяна във времето за отговор [и] значително увеличена дължина на отговора“ в съобщенията на пациентите. (iStock)

Мисли на лекаря относно AI

Дейвид Аташру, доктор по медицина, главен медицински директор на Qventus, базирано на AI решение за хирургично управление в Маунтин Вю, Калифорния, реагира на резултатите от изследването в интервю за Fox News Digital. (Той не е участвал в изследването.)

„Виждаме огромен потенциал за AI да поеме по-нискорискови, но силно автоматизирани задачи, които традиционно попадат върху основните, но често пренебрегвани „свързващи роли“ в здравни грижи — като плановици, медицински асистенти, мениджъри на случаи и навигатори по грижи“, каза той. очаквания относно представянето на [AI].“

„Тези професионалисти са от решаващо значение за поддържането на процеси, които са пряко свързани с клиничните резултати, но прекарват значителна част от времето си в административни задачи като анализиране на факсове , обобщаване на бележки и осигуряване на необходимата документация."

При автоматизирането на тези задачи Atashroo предположи, че генеративният AI може да помогне за подобряване на ефективността и ефикасността на клиничните грижи.

„Когато се обмисля внедряването на генеративен AI, е от решаващо значение да се зададат реалистични очаквания относно неговата производителност“, каза той. 

„Стандартът не винаги може да бъде съвършенство, тъй като дори хората, които в момента изпълняват тези задачи, не са безпогрешни ."

„Стандартът не винаги може да бъде съвършенство, тъй като дори хората, които в момента изпълняват тези задачи, не са безпогрешни", каза експерт по изкуствен интелект. (iStock)

В някои сценарии той Предполага се, че изкуственият интелект може да помогне да служи като „предпазна мрежа“ за улавяне на всякакви пропуски на членовете на екипа.

Задачите понякога може да останат нерешени „просто защото няма достатъчно време за справяне с тях“, отбеляза Аташру.

„Генеративният AI може да помогне за управлението на случаите по-последователно, отколкото позволява текущият ни капацитет.“

"Когато обмисляме разгръщането на генеративен AI, от решаващо значение е да се зададат реалистични очаквания за неговото представяне."

Безопасността и ефикасността са „първостепенни" в приложенията на AI, отбеляза също докторът.

„Това означава не само разработване на модели със строги проверки на качеството, но и включване на редовни оценки от човешки експерти за валидиране на тяхното представяне“, каза той.

„Тази двуслойна проверка гарантира, че нашите AI решения са едновременно отговорни и надеждни, преди да бъдат мащабирани.“

Atashroo също така отбеляза, че „прозрачността в разработването и внедряването на AI технологии е от съществено значение за изграждането на доверие между болничните партньори и пациентите.“

.

Анджелика Стайбъл е писател за начина на живот за Fox News Digital.

Източник: foxnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!