Studiuesit kanë gjetur një metodë të re që mund të përdoret për të zbuluar dhe parandaluar “halucinacionet” e inteligjencës artificiale, një term kolokial për përgjigjet e pasakta të dhëna nga AI.
Një studim i ri nga një ekip në Universitetin e Oksfordit ka zhvilluar një model statistikor që mund të identifikojë kur një pyetje që i bëhet një modeli të madh gjuhësor (LLM), i cili përdoret për të fuqizuar një chatbot me AI, ka të ngjarë të japë një përgjigje të pasaktë.
“Halucinacionet” e inteligjencës artificiale janë identifikuar si një problem kyç, pasi natyra e avancuar e teknologjisë dhe aftësitë e saj biseduese nënkuptojnë se ajo është në gjendje të paraqesë informacion të pasaktë si fakt kur i përgjigjet një pyetjeje.
Në një kohë kur më shumë përdorues po i drejtohen mjeteve të inteligjencës artificiale kur kanë nevojë për ndihmë me kërkime ose për të përfunduar detyrat, shumë ekspertë po bëjnë thirrje për veprim për të parandaluar “halucinacionet” e AI, veçanërisht kur bëhet fjalë për pyetje mjekësore ose ligjore.
Studiuesit e Oksfordit thanë se hulumtimi i tyre gjeti një mënyrë për të përcaktuar se kur AI është i sigurt për një përgjigje dhe kur e krijon atë.
“LLM-të janë shumë të aftë për të thënë të njëjtën gjë në shumë mënyra të ndryshme, gjë që mund ta bëjë të vështirë të gjykojë kur ata janë të sigurt për një përgjigje dhe kur ata fjalë për fjalë thjesht ‘halucinojnë’ diçka. Me qasjet e mëparshme, nuk ishte e mundur të shihej ndryshimi midis asaj kur modeli nuk di çfarë të thotë dhe kur nuk di ta thotë atë. Por metoda jonë e re shkon përtej kësaj”, shpjegoi autori i studimit, Dr. Sebastian Farquhar.
Megjithatë, ai gjithashtu beson se duhet bërë më shumë punë për korrigjimin e gabimeve që modelet e AI mund të bëjnë.
Hulumtimi i shkencëtarëve nga Oksfordi u botua në revistën Nature. /tesheshi.com/