Inteligența Artificială a trecut testul Turing
Recent, un model lingvistic avansat, GPT-4.5 de la OpenAI, a reușit să treacă testul Turing, un standard de referință utilizat pentru a evalua inteligența asemănătoare celei umane. Conform unui studiu preprint, în care participanții au interacționat simultan cu un om și cu AI-ul, modelul a fost considerat uman în 73% din cazuri atunci când i s-a atribuit o anumită personalitate. Acest rezultat depășește semnificativ șansa de 50%, ceea ce sugerează că testul a fost, practic, trecut.
Studiul a fost realizat pe o platformă online, implicând aproape 300 de participanți care au jucat rolurile de „interogatori” și „martori”, unul dintre ei fiind un chatbot. În varianta testului cu personalitate, GPT-4.5 a obținut o rată de succes de 73%, comparativ cu doar 36% în varianta fără personalitate. Aceasta a demonstrat importanța contextului și a personalității atribuite AI-ului în recunoașterea sa ca fiind uman.
Autorul principal al studiului, Cameron Jones, cercetător la UC San Diego’s Language and Cognition Lab, a declarat că oamenii nu au reușit să facă o distincție precisă între AI și oameni, rezultatele fiind asemănătoare cu cele ale unei alegeri aleatorii. Testul Turing, propus de matematicianul Alan Turing în 1950, este un experiment conversațional care evaluează dacă un computer poate gândi ca un om.
Studiul a inclus și evaluarea altor modele, precum LLama 3.1-405B de la Meta și GPT-4o de la OpenAI, care au avut rezultate variate, subliniind progresele recente în domeniul inteligenței artificiale.
Inteligența Artificială a trecut testul Turing
Recent, s-a confirmat că inteligența artificială (AI) a reușit să treacă testul Turing, un standard esențial în evaluarea capacităților cognitive ale mașinilor. Modelele lingvistice de mari dimensiuni (LLM) au demonstrat abilități remarcabile în conversație, fiind antrenate pe cantități uriașe de text uman, ceea ce le permite să genereze răspunsuri plauzibile chiar și în situațiile în care nu înțeleg pe deplin întrebările.
François Chollet, inginer software la Google, a explicat că, deși aceste modele au limitări, ele sunt din ce în ce mai eficiente în interacțiunile verbale. În plus, expertul Jones a subliniat că rezultatele studiului său nu oferă o concluzie clară despre inteligența acestor modele, dar sugerează că LLM-urile ar putea înlocui oamenii în interacțiuni scurte, fără ca utilizatorii să își dea seama.
Aceste descoperiri ridică îngrijorări cu privire la automatizarea locurilor de muncă și la posibilele efecte negative asupra societății, inclusiv îmbunătățirea atacurilor prin inginerie socială. De asemenea, Jones a menționat că testul Turing nu se limitează doar la evaluarea computerele, ci și la percepția umană asupra tehnologiei. Pe măsură ce interacțiunile cu AI devin mai frecvente, publicul ar putea deveni mai abil în a distinge între inteligența umană și cea artificială.