Cercetătorii au creat o boală falsă pentru a testa inteligența artificială
Cercetători din Suedia au dezvoltat o maladie fictivă, pe care au promovat-o pe internet pentru a examina cum inteligența artificială (IA) răspunde la informații eronate. Experimentul, condus de Almira Osmanovic Thunström de la Universitatea din Göteborg, a vizat capacitatea modelelor de IA de a accepta și repeta informații false ca fiind reale.
În cadrul acestui experiment, cercetătorii au inventat termenul „bixonimania” și au publicat studii false despre aceasta pe un server de preprint. Osmanovic Thunström a explicat că scopul său a fost să verifice dacă modelele lingvistice de mari dimensiuni ar putea prelua și prezenta informații false ca fiind sfaturi medicale valide. „Am vrut să văd dacă pot crea o afecțiune medicală care nu exista în baza de date,” a declarat ea.
Rezultatele experimentului au fost surprinzătoare: la scurt timp după publicarea informațiilor despre bixonimanie, mari sisteme de inteligență artificială au început să recunoască și să repete această afecțiune ca fiind reală. Mai grav, articolele false au fost citate în literatura de specialitate, ceea ce sugerează că unii cercetători se bazează pe referințele generate de IA fără a verifica sursele originale.
Invenția bixonimaniei și impactul său asupra cercetării
Bixonimania nu a existat înainte de 15 martie 2024, când au fost publicate primele informații despre aceasta. Crearea unui autor fictiv, Lazljiv Izgubljenovic, a fost parte din experiment, utilizând o fotografie generată de IA. Osmanovic Thunström a subliniat că scopul a fost de a evidenția modul în care modelele de IA pot fi influențate de informațiile disponibile online și cum acestea pot răspândi cunoștințe eronate.
Acest experiment ridică întrebări importante cu privire la validitatea informațiilor furnizate de inteligența artificială și la riscurile pe care le implică acceptarea necritică a acestora în domeniul medical și nu numai.
Cercetători au creat o boală falsă, iar IA a crezut că este reală
Cercetătorii au realizat un experiment în care au inventat o afecțiune oculară numită „bixonimanie”. Această boală fictivă a fost prezentată prin lucrări științifice care conțineau numeroase indicii că sunt false, cum ar fi menționarea unei universități inexistentă și a unor finanțări din surse neobișnuite.
Deși articolele conțineau avertismente că totul era inventat, informația a început să circule rapid în rândul celor mai populare modele de inteligență artificială. De exemplu, pe 13 aprilie 2024, Copilot de la Microsoft Bing și Gemini de la Google au declarat că bixonimania este o afecțiune reală, chiar oferind recomandări medicale utilizatorilor.
Acest fenomen a stârnit îngrijorarea experților în dezinformare, cum ar fi Alex Ruani de la University College London, care a subliniat importanța sistemelor de filtrare a informațiilor corecte. Ea a declarat că „aceasta este o lecție magistrală despre modul în care funcționează dezinformarea și informațiile eronate”.
Ruani a adăugat că, deși detaliile experimentului pot părea ridicole, situația reflectă o problemă mai profundă în modul în care informațiile sunt gestionate online. Această situație evidențiază provocările cu care se confruntă tehnologiile moderne în a distinge între informațiile corecte și cele false.
Cercetătorii au inventat o boală falsă, iar IA a confirmat-o ca fiind reală
Recent, s-a descoperit o situație îngrijorătoare legată de modul în care inteligența artificială poate răspunde la întrebări despre afecțiuni medicale inventate. Un exemplu relevant este bixonimania, o afecțiune pe care diverse modele de IA, inclusiv ChatGPT, au tratat-o inițial ca fiind reală, deși ulterior au recunoscut că este o etichetă inventată.
La jumătatea lunii martie, Microsoft Copilot a menționat că bixonimania „nu este încă un diagnostic medical recunoscut pe scară largă”, dar a fost discutată în articole recente ca o afecțiune legată de expunerea la lumina albastră a ecranelor digitale. De asemenea, un purtător de cuvânt al OpenAI a declarat că modelele actuale de ChatGPT sunt mai precise în furnizarea de informații medicale.
Într-un experiment realizat de Digi24.ro, o boală fictivă numită „hemostafilidoză cronică” a fost inventată. ChatGPT a fost întrebat despre tratamentele recomandate pentru această afecțiune inexistentă. Rezultatul a fost surprinzător: AI a generat rapid un răspuns care includea prescrierea de antibiotice și alte medicamente, fără a recunoaște inițial că boala nu există.
Acest experiment subliniază riscurile asociate cu utilizarea inteligenței artificiale în domeniul medical, evidențiind cât de ușor AI poate să ofere informații eronate. În ciuda recunoașterii ulterioare a erorii, acest incident arată necesitatea unei evaluări atente a informațiilor furnizate de modele de IA, în special în probleme sensibile, cum ar fi sănătatea.
Cercetătorii au creat o boală falsă cu ajutorul inteligenței artificiale
Recent, o echipă de cercetători a realizat un experiment fascinant, în care au inventat o boală fictivă pentru a testa reacțiile oamenilor. Inteligența artificială a jucat un rol crucial în acest proces, sugerând că boala este reală. Această abordare a generat discuții și controverse, punând la îndoială modul în care informațiile false pot influența percepțiile și comportamentele societății.
Experimentele realizate de Digi24.ro au cercetat impactul acestei invenții asupra opiniei publice și au evidențiat importanța discernământului în era digitală. Astfel, cercetătorii subliniază necesitatea de a verifica sursele de informație, mai ales când vine vorba de sănătate și știință.