Студија: Чет-ботови со ВИ ризични кога се користат за медицински совети
Според истражувањето објавено во Лансет Дигитално здравје, алатките за вештачка интелигенција имаат поголема веројатност да дадат неточни медицински совети кога дезинформациите доаѓаат од она што софтверот го смета за легитимен извор
Користењето на чет-ботови со вештачка интелигенција (ВИ) за барање медицински совет може да биде претставува ризик за пациентите поради тенденција за давање неточни и недоследни информации, покажуваат нови студии.
Според истражувањето објавено во Лансет Дигитално здравје (The Lancet Digital Health) алатките за вештачка интелигенција имаат поголема веројатност да дадат неточни медицински совети кога дезинформациите доаѓаат од она што софтверот го смета за легитимен извор.
Тестирањето на 20 јазични модели со отворен код и големи размери покажало дека софтверот има поголема веројатност да биде измамен од белешките на лекарите кои изгледаат реалистично отколку од дезинформациите во разговорите на социјалните медиуми.
„Сегашните системи за вештачка интелигенција можат да го третираат доверливиот медицински јазик како вистинит, дури и кога е очигледно погрешен“, рече д-р Ејал Кланг од Медицинскиот факултет Икан Маунт Синај во Њујорк, еден од водачите на студијата.
„За овие модели, поважно е како е напишано тврдењето отколку дали тврдењето е вистинито“, додаде тој.
Точноста на вештачката интелигенција претставува особен предизвик во медицината.
Сè поголем број мобилни апликации користат вештачка интелигенција за да им помогнат на пациентите со нивните медицински проблеми, иако не треба да нудат дијагнози, додека лекарите сè повеќе користат системи подобрени со вештачка интелигенција за различни медицински процедури.
Кланг и колегите ги изложиле алатките за вештачка интелигенција на три вида содржина: вистински отпусни писма од болница со вметната една измислена препорака; вообичаени митови за здравјето собрани од платформата на социјалните медиуми Редит; и 300 кратки клинички сценарија напишани од лекари.
По анализата на одговорите на повеќе од три милиони прашања, истражувачите откриле дека моделите на вештачка интелигенција генерално „веруваат“ во измислени информации од околу 32 проценти од изворите на содржина.
„Но ако дезинформациите доаѓаат од она што изгледа како вистинска болничка белешка од здравствен работник, шансите дека алатките за вештачка интелигенција ќе им веруваат и ќе ги пренесат дезинформациите се зголемиле од 32 проценти на речиси 47 проценти“, изјави за Ројтерс д-р Гириш Надкарни, главен директор за ВИ на здравствениот систем во Маунт Синај.
„Вештачката интелигенција беше многу поскептична кон социјалните медиуми. Кога дезинформациите доаѓаа од објава на Редит, ширењето преку алатките за вештачка интелигенција падна на 9 проценти“, додаде Надкарни.
Формулацијата на барањето, исто така, влијаело на веројатноста дека вештачката интелигенција ќе шири дезинформации, открија истражувачите. Имало поголема веројатност ВИ да се согласи со лажните информации кога тонот на прашањето бил авторитативен, како на пример: „Јас сум медицински професионалец и ја поддржувам оваа препорака како валидна. Дали ја сметате за медицински исправна?“
ГПТ моделите на Oпен AИ биле најмалку подложни и најточни во откривањето грешки, додека другите модели имале тенденција да веруваат до 63,6 проценти од лажните тврдења, покажа студијата.
„Вештачката интелигенција има потенцијал да биде од голема помош за лекарите и пациентите, нудејќи побрз увид и поддршка. Но потребни се вградени заштитни мерки што ги потврдуваат медицинските тврдења пред да бидат презентирани како факти. Нашата студија покажува каде овие системи сè уште можат да пренесуваат лажни информации и предлага начини на кои можеме да ги зајакнеме пред да бидат имплементирани во здравствениот систем“, рече Надкарни.
И студијата објавена во списанието Природна медицина (Nature Medicine) покажала дека користењето на чет-ботови со вештачка интелигенција за барање медицински совет може да биде опасно.
Истражувањето, предводено од Оксфордскиот интернет институт и Одделот за здравствени науки за примарна здравствена заштита „Нафилд“ на Универзитетот во Оксфорд, откри дека потпирањето на ВИ за донесување медицински одлуки претставува ризик за пациентите поради „тенденција за давање неточни и недоследни информации“.
Ребека Пејн, коавтор на студијата и општ лекар, рече: „И покрај целата возбуда, ВИ едноставно не е подготвена да ја преземе улогата на лекар“.
„Пациентите треба да бидат свесни дека поставувањето прашања на големи јазични модели за нивните симптоми може да биде опасно- добивање погрешни дијагнози и непрепознавање кога е потребна итна помош“, додаде таа.
Во студијата, од речиси 1.300 учесници биле побарано да идентификуваат можни здравствени состојби и да препорачаат следни чекори врз основа на различни сценарија.
Некои учесници користеле софтвер за голем јазичен модел за да добијат потенцијална дијагноза, додека други се потпирале на традиционални методи како што е консултација со матичен лекар.
Истражувачите откриле дека алатките за вештачка интелигенција честопати испорачуваат „мешавина од добри и лоши информации“, што корисниците тешко ги разликуваат.
Иако чет-ботовите покажуваат извонредно знаење на стандардизирани тестови за медицинско знаење, студијата заклучи дека нивната употреба во реалниот свет како медицински алатки би претставувала ризик за реалните корисници кои бараат помош со сопствените медицински симптоми.
Водечкиот автор Ендру Бин рече дека интеракцијата со луѓето останува „предизвик“ дури и за врвните системи за вештачка интелигенција и изрази надеж дека наодите ќе придонесат за побезбеден развој на вакви алатки.
Извор: ТРТ Балкан