Истражувачите пронајдоа нов метод што може да се користи за откривање и спречување на „халуцинации“ на вештачката интелигенција, што е колоквијално име за неточни одговори дадени од вештачката интелигенција.
Една нова студија на тим од Универзитетот во Оксфорд разви статистички модел кој може да идентификува кога прашањето поставено на моделот на голем јазик (ЛЛМ) што се користи за напојување на чет-бот со вештачка интелигенција веројатно ќе даде неточен одговор. Нивното истражување е објавено во списанието Nature.
„Халуцинациите“ на вештачката интелигенција се идентификувани како клучен проблем бидејќи напредната природа на технологијата и нејзините разговорни способности значат дека таа е способна да прикаже неточни информации како факт кога одговара на прашање.
Во време кога се повеќе студенти се свртуваат кон алатките за вештачка интелигенција кога им треба помош при истражување или завршување на задачите, многу експерти повикуваат на акција за да се спречат „халуцинациите“ на вештачка интелигенција, особено кога станува збор за прашања поврзани со медицински или правни прашања.
Истражувачите од Оксфорд рекоа дека нивното истражување нашло начин да се каже кога вештачката интелигенција е сигурна за одговорот и кога го измислува.
Авторот на студијата, д-р Себастијан Фаркухар рече: „ЛЛМ се многу способни да го кажат истото на многу различни начини, што може да го отежне разликувањето кога се сигурни во одговорот и кога буквално само „халуцинираат“ нешто. Со претходните пристапи, не беше можно да се види разликата кога моделот не знае што да каже и кога не знае како да го каже. Но, нашиот нов метод оди подалеку од тоа“.
Но, д-р Фаркухар вели дека уште треба да се работи за да се поправат грешките што моделите со вештачка интелигенција можат да ги направат.