Gigantul american Google a decis să își modifice principiile care guvernează dezvoltarea inteligenței artificiale (AI), renunțând la angajamentul de a nu dezvolta armament sau tehnologii destinate rănirii persoanelor. Această schimbare a fost anunțată într-o postare pe blogul companiei, care menționează actualizări ale chartei etice adoptate în 2018.
Anterior, Google se angajase să evite tehnologiile care supraveghează și care încalcă normele internaționale, dar acum a renunțat la această restricție. Purtătorul de cuvânt al companiei nu a clarificat ce principii au fost modificate, referindu-se doar la un raport publicat recent intitulat „AI responsabilă”.
Decizia survine într-un context în care reglementările din domeniul AI au fost relaxate. De exemplu, societățile din acest sector nu mai sunt obligate să comunice rezultatele testelor atunci când programele prezintă riscuri semnificative. Această schimbare de politică reflectă o transformare a contextului AI, care a evoluat de la o tehnologie de nișă la una omniprezentă în viața cotidiană a miliardelor de oameni.
Principiile inițiale ale Google au fost stabilite în urma unei petiții a angajaților în 2018, care solicitau companiei să renunțe la colaborarea cu Pentagonul pentru Project Maven, un program de cercetare dedicat dronelor militare.