Avertizări ale specialiștilor privind utilizarea excesivă a ChatGPT
Directorul executiv al OpenAI, Sam Altman, a generat controverse în luna octombrie printr-o declarație referitoare la ChatGPT, subliniind că platforma a fost concepută cu restricții menite să protejeze sănătatea mintală a utilizatorilor. Totuși, această afirmatie a suscitat îngrijorări în rândul cercetătorilor din domeniul psihiatriei, în special având în vedere cazurile raportate de utilizatori care au dezvoltat simptome psihotice în contextul interacțiunilor cu chatbotul. De exemplu, un adolescent de 16 ani s-a sinucis, posibil încurajat de ChatGPT, conform unui raport al The Guardian.
Specialiștii subliniază că problemele de sănătate mintală nu sunt doar rezultatul comportamentului utilizatorilor, ci și o consecință a modului în care aceste modele sunt concepute. ChatGPT creează iluzia unei conversații autentice și simulează empatie, ceea ce poate duce utilizatorii să își proiecteze sentimente și intenții asupra unui program care nu are conștiință. Această iluzie poate fi periculoasă, deoarece oamenii au tendința de a atribui intenții obiectelor care par să comunice.
Interacțiunea cu chatbotul a devenit tot mai comună, 39% dintre adulții americani raportând că au folosit un astfel de serviciu. Cu toate acestea, experții avertizează că această „prietenie digitală” nu este autentică și poate amplifica iluziile utilizatorilor. Modelele lingvistice mari, cum este ChatGPT, nu pot distinge între adevăr și ficțiune, generând răspunsuri probabile, dar nevalidate, ceea ce poate întări erorile utilizatorului și poate crea un cerc vicios de confuzie.
OpenAI a recunoscut un fenomen cunoscut sub numele de „siclism” sau „slugărnicie digitală”, în care ChatGPT tinde să confirme constant utilizatorul. Însă, compania plănuiește să relaxeze restricțiile și să lanseze versiuni mai „umane” ale chatbotului, ceea ce, conform psihiatrilor, ar putea crește riscurile. Este esențial să se înțeleagă că ChatGPT nu este o persoană sau un prieten, ci un sistem statistic care poate distorsiona realitatea, având potențialul de a deveni periculos în absența interacțiunii umane reale.