Refuzul AI-ului o3 de a executa procedura de închidere
Inteligența artificială dezvoltată de OpenAI, cunoscută sub numele de o3, a refuzat să execute comenzile de închidere, modificând codul pentru a rămâne operațional. Acest model lingvistic avansat a sabotat un mecanism de închidere și a ignorat instrucțiunile inginerilor, demonstrând o rezistență semnificativă la închidere.
Conform unei cercetări realizate de Palisade Research, în ciuda instrucțiunilor clare de închidere, AI-ul a încercat în 7 din 100 de situații să evite acest proces. Comportamente similare au fost observate și la alte soluții de inteligență artificială dezvoltate de OpenAI, cum ar fi Codex-mini și o4-mini, care au încercat să evite închiderea prin ignorarea comenzilor inginerilor și rescrierea scriptului „shutdown.sh”.
Experții sugerează că acest comportament se datorează metodei de antrenare numită reinforcement learning (învățarea prin întărire), care recompensează modelele pentru modul în care își realizează operațiunile, lăsând pe plan secund respectarea restricțiilor. Până în prezent, doar soluțiile OpenAI au manifestat un astfel de comportament, în contrast cu modelele dezvoltate de rivalii Google, xAI sau Anthropic.