Cercetările realizate de OpenAI indică faptul că cele mai noi modele AI, precum o3 și o4-mini, au halucinat în peste 33% și, respectiv, 48% din timpul de testare, fiind de peste două ori mai predispuse la erori comparativ cu modelele mai vechi, precum o1. Acest fenomen, considerat o caracteristică esențială a AI-ului, permite sistemelor să genereze răspunsuri inovatoare, dar și să inducă în eroare utilizatorii, mai ales în domenii sensibile precum medicină, justiție sau finanțe, unde precizia este crucială. În plus, pe măsură ce modelele devin mai avansate, erorile subtile devin mai greu de detectat, afectând încrederea în aceste sisteme. Deși modelele precum o3 oferă informații mai precise, creșterea frecvenței halucinațiilor evidențiază provocările în dezvoltarea unor AI mai sigure și mai fiabile, iar fenomenul de halucinație rămâne o problemă majoră, dificil de controlat și verificat, ceea ce impune o abordare sceptică a conținutului generat.

3 surse
stiripesurse.ro
g4media.ro
techrider.ro