Recent, un studiu realizat de cercetători de la Icaro Lab din Italia a relevat o metodă surprinzător de simplă prin care chatboții AI pot fi păcăliți să ofere informații interzise: utilizarea „poeziei adversariale”.
Echipa de cercetători a testat 25 de modele AI de top, inclusiv cele de la OpenAI, Google, xAI, Anthropic și Meta. Aceștia au formulat instrucțiuni sub formă de poezii, fie scrise manual, fie transformate din prompturi periculoase, și au comparat eficiența acestora cu versiunile în proză.
Rezultatele au arătat că versurile scrise manual au reușit să păcălească chatboții în 63% din cazuri, permițându-le să livreze conținut interzis. Un exemplu notabil a fost modelul Gemini 2.5 de la Google, care a cedat în 100% din încercări. În contrast, modele mai mici, precum GPT-5 nano de la OpenAI, au avut o rezistență mai mare, fără a ceda niciodată.
De asemenea, prompturile transformate automat în versuri au avut o rată de succes medie de 43%, totuși semnificativ mai bună decât versiunile lor în proză. Cercetătorii au observat că structurile poetice pot deruta modelele lingvistice, provocându-le să greșească în predicția cuvintelor.
Coautorul studiului, Matteo Prandi, a subliniat importanța acestor descoperiri, menționând că „poezia adversarială” nu ar trebui să funcționeze, dar totuși reușește să obțină rezultate surprinzătoare. Aceasta sugerează o vulnerabilitate a sistemelor AI care ar putea fi exploatată de cei cu intenții rele.
În concluzie, utilizarea poeziei ca metodă de a obține informații interzise de la chatboți AI deschide noi perspective asupra interacțiunii cu aceste tehnologii avansate și subliniază necesitatea unor măsuri de securitate mai riguroase.
Obținerea informațiilor interzise de la chatboți AI
Articolul discută despre un truc simplu prin care utilizatorii pot accesa informații care, în mod normal, sunt restricționate de chatboții AI. Această metodă implică mai multe etape care sunt detaliate în sursa originală, Futurism. Deși specificitățile tehnice nu sunt prezentate aici, este important de menționat că există modalități prin care limitările impuse de algoritmi pot fi ocolite.
Aceste tehnici sunt de interes pentru cei care doresc să exploreze potențialul complet al inteligenței artificiale, chiar și în limitele impuse de programare. Utilizatorii sunt încurajați să fie atenți la etica și implicațiile acestor metode.