Chatboții distorsionează faptele și induc confuzie
Conform unei cercetări realizate de BBC, principalii asistenți de inteligență artificială, inclusiv ChatGPT, Copilot, Gemini și Perplexity, generează distorsiuni și inexactități atunci când sunt întrebați despre știri și actualități. Mai mult de jumătate dintre răspunsurile generate de aceste instrumente au fost considerate a avea „probleme semnificative”.
Printre erorile semnalate se numără afirmații false despre lideri politici, cum ar fi faptul că Rishi Sunak și Nicola Sturgeon erau încă în funcție, și denaturări ale recomandărilor NHS cu privire la vaping. De asemenea, AI-ul pare să confunde opiniile și deseori citează materiale de arhivă neactualizate.
Cercetătorii au solicitat acestor instrumente să răspundă la 100 de întrebări bazate pe articole BBC, iar răspunsurile au fost evaluate de jurnaliști specializați. Aproximativ o cincime dintre răspunsuri conțineau erori factuale, iar 13% dintre citatele atribuite BBC au fost fie modificate, fie inexacte.
Un exemplu notabil include răspunsul generat de Gemini referitor la cazul asistentei neonatală Lucy Letby, unde contextul condamnărilor sale a fost complet omis. Alte denaturări au fost observate, cum ar fi afirmația falsă a Copilot că o victimă a violului a aflat despre crimele împotriva sa prin pierderi de memorie, sau declarațiile inexacte ale ChatGPT și Gemini legate de lideri politici și recomandările NHS.
Avertismentul experților
Deborah Turness, director executiv al BBC pentru știri, a declarat că „instrumentele AI se joacă cu focul” și ar putea submina „încrederea fragilă a publicului în fapte”. Într-o postare pe blog, ea a ridicat întrebarea dacă inteligența artificială este pregătită să ofere știri fără a distorsiona faptele și a îndemnat companiile de inteligență artificială să colaboreze cu BBC pentru a produce răspunsuri mai precise, în loc să contribuie la haos și confuzie.
Chatboții și Inexactitățile Factuale
Recent, utilizatorii au fost informați în mod eronat că Luigi Mangione, acuzat de uciderea lui Brian Thompson, directorul executiv al diviziei de asigurări a UnitedHealthcare, s-a împușcat. Aceasta este doar una dintre numeroasele inexactități întâlnite în rândul instrumentelor AI, care devin din ce în ce mai populare.
Cercetarea sugerează că erorile și denaturările conținutului de încredere sunt răspândite, iar dimensiunea și domeniul de aplicare al acestor probleme sunt încă necunoscute. Peter Archer, directorul programului BBC pentru AI generativă, a subliniat că cercetarea actuală abia zgârie suprafața complexității acestei probleme.
Archer a afirmat că editorii, cum ar fi BBC, ar trebui să aibă control asupra utilizării conținutului lor, iar companiile de AI trebuie să fie transparente cu privire la modul în care își procesează știrile. Acest lucru include evidențierea erorilor și inexactităților care sunt generate de aceste sisteme.
Este esențial să se dezvolte parteneriate solide între tehnologia AI și companiile media, pentru a asigura că publicul este prioritar și că se maximizează valoarea informațiilor furnizate. BBC se arată deschisă să colaboreze cu partenerii pentru a aborda aceste provocări.