OpenAI se confruntă cu o creștere a halucinațiilor AI
Cele mai recente modele lingvistice lansate de OpenAI, o3 și o4-mini, au prezentat o problemă neașteptată: halucinațiile AI-ului au crescut semnificativ comparativ cu versiunile anterioare. De obicei, OpenAI se aștepta ca nivelul halucinațiilor să scadă odată cu fiecare nouă generație de modele, însă rezultatele recente contrazic această tendință.
Testele interne efectuate de companie au relevat o creștere alarmantă a halucinațiilor, cu 33% pentru modelul o3 și cu 48% pentru o4-mini. Această tendință este considerată exponențială și îngrijorătoare. De asemenea, modelul o3 a demonstrat o tendință de a inventa acțiuni în procesul de raționare, afirmând că a aplicat principii logice pe care de fapt nu le-a utilizat.
Inginerii OpenAI nu reușesc să explice motivul din spatele acestei creșteri masive a halucinațiilor. Conform declarațiilor lor, „Ipoteza noastră este că tipul de învățare prin întărire utilizat pentru modelele din seria o amplifică problemele care sunt de obicei atenuate prin tehnicile aplicate post-antrenament.”
Termenul de halucinație se referă, în contextul inteligenței artificiale, la tendința sistemelor de a genera informații false, ceea ce duce la răspunsuri care nu corespund realității.