Како што наведува истражувањето објавено од порталот New Scientist, алатки базирани на вештачка интелигенција, вклучувајќи ги Perplexity и GPT-4 на компанијата OpenAI, често даваат еднострани одговори на спорни прашања и своите тврдења не ги поткрепуваат со сигурни извори.
AI модели во кои тонот преовладува над проверливоста
AI системите што наместо листа на линкови нудат „конечен одговор“, платформи кои комбинираат јазични модели со веб-индекс, навлегуваат во сфера во која тонот често ја надминува проверливоста. Студијата користела рамка за проверка на аргументација која на ниво на поединечна реченица проверува дали изворот навистина ја поддржува дадената тврдење.
Во таа детална проверка истражувачите идентификувале широк спектар на проблеми: од неточни парафрази и извлекување заклучоци што изворот не ги содржи, до целосно изоставување на цитирање каде што тоа е неопходно. Кога сите наоди се сумираат, околу третина од изјавите се покажале како „непоткрепени“.
Методологијата е важна затоа што го поместува фокусот од просто „наведување линк“ кон суштинското прашање, дали цитираните текстови навистина ја носат тежината на она што го изговара AI моделот. Рамката за оценка опфаќа повеќе димензии: точност и темелност на цитирањето, пристрасност во одговорите, удел на релевантни изјави наспроти споредни, како и појави на преголема самоувереност (кога моделот категорично тврди нешто за што постојат ограничени или контрадикторни податоци).
Особено проблематично е тоа што „подлабоките“ режими на работа, агенти што ветуваат повеќестепено истражување и синтеза во просек правеле повеќе грешки, што укажува дека посложените зависни ланци на резонирање сè уште не се сигурно засновани врз изворите.
За корисниците, последиците се јасни. Ако одговорот на AI се доживува како конечна вистина, а не како почетна точка, ризикот од пренесување неточни или непоткрепени информации расте од секојдневно информирање до бизнис одлучување. Ова е особено критично кај теми што се временски чувствителни, спорни или високо специјализирани, каде нијансите во толкувањето на изворите имаат реални последици. Во пракса, корисниците треба да бараат јасни наведувања на извори, да споредуваат повеќе референци и да бидат претпазливи кога системот звучи премногу сигурно во области кои по своја природа се неизвесни.
За индустријата, студијата нуди конструктивни насоки. Прво, потребно е инсистирање на детални цитати на ниво на реченица или пасус, за транспарентно да биде јасно на што се повикува моделот. Второ, корисни се ознаки за степенот на сигурност и експлицитни предупредувања кога податоците не се доволни. Трето, предност треба да имаат експертски и примарни извори (научни трудови, официјални бази, регулаторни документи), со механизми што ќе го санкционираат „измислувањето“ на референци. Технички, тоа значи подобра контрола врз пребарувањето и прибирањето докази, како и верификациски чекори пред да се генерира конечниот одговор.
Пошироката слика зборува за стариот судир меѓу брзината и веродостојноста. AI системите драматично го скратуваат времето за доаѓање до информација, но брзината не смее да ја замени проверката. Сè додека стандардите не се подигнат на ниво „покажи доказ, поткрепи тврдење и признај неизвесност“, одговорноста останува поделена: на производителите да воведат построги практики на цитирање и контрола, а на корисниците да задржат здрав скептицизам и навика за проверка пред тврдењата на AI да ги претворат во одлуки.
Извор: web-mind.rs,