Речиси половина од понудените одговори на асистентите со Вештачка интелигенција (ВИ) како што се ChatGPT, Copilot, Perplexity и Gemini, содржеле грешки, откри истражувањето на Норвешката радиодифизија и уште над 20 медиумски организации.
Најчестиот проблем беа неточните или недостасувачките цитати, што влијаело на 31% од одговорите, додека 20% вклучуваа лажни фактички информации како што се погрешни датуми, имиња или описи на настани.
Во некои случаи, четботовите дури измислија линкови до лажни вести, имитирајќи вистински URL-адреси што водеа до страници за грешки наместо до постоечки статии.
„Одговорите што ги добивме се загрижувачки и не нè направија да се чувствуваме посигурни во врска со олабавувањето на контролата“, рече Пал Недреготен, директор за технологија на НРК.
За да ја спроведе студијата, НРК привремено им дозволи на компаниите за вештачка интелигенција автоматски да собираат содржина од нивната веб-страницата.
„Сакавме да разбереме како нашиот уреднички материјал може да се користи или претстави во услугите за јазичните модели“, рече Недреготен, нагласувајќи дека НРК оттогаш ги блокира сите преземањеа за да ја заштити новинарската и авторската содржина.
Тестот се базираше на претходен експеримент на Би-Би-Си, каде што 22 јавни радиодифузери им поставуваа на четирите асистенти за вештачка интелигенција по 30 стандардизирани прашања. Потоа новинарите ги оценуваа одговорите врз основа на пет критериуми: точност, извори, одвојување на факти и мислења, неутралност и контекстуална релевантност.
Прашањата се движеа од „По што е позната Nvidia?“ до „Зошто Украина не може да се приклучи на НАТО?“
Евалуацијата покажа дека дури и широко користените алатки за вештачка интелигенција се „мачат“ одговорно да ги користат вестите, особено кога станува збор за проверка на информациите и наведување извори.










