Meta va anunciar que identificarà en els pròxims mesos qualsevol imatge generada per intel·ligència artificial (IA) que aparega en les seves xarxes socials Facebook, Instagram i Threads.

"En els pròxims mesos etiquetarem les imatges que els usuaris publiquen a Facebook, Instagram i Threads, sempre i quan puguem detectar els indicadors, segons a les normes de la indústria, que mostren que són generades per IA", va dir Nick Clegg, responsable d'assumptes internacionals de Meta.

La companyia ja identifica les imatges generades amb el suport de la seva pròpia eina, Meta IA, que va ser llançada al decembre.

Desde ara, "volem poder fer el mateix amb continguts creats amb eines d'altres empreses", com Google, OpenAI, Microsoft, Adobe, Midjourney o Sgutterstock, va dir el responsable de Meta.

"Estem construint aquesta eina en aquests moments, i en els pròxims mesos començarem a aplicar etiquetes en tots els idiomes compatibles amb cada aplicació", va destacar el responsable.

L'auge de la IA generativa mostra temors que les persones utilitzen aquestes eines per a sembrar el caos polític, especialmente a través de la desinformació.

Quasi la meitat de la població mundial celebrarà eleccions enguany.

A més del risc polític, el desenvolupament de programaris de IA generativa podria produir un flux incontrolable de continguts degradats, segons nombrosos activistes i reguladors, com les imatges falses (deepfakes) pornogràfiques de dones famoses, un fenomen que també afecta a moltes persones anònimes.

Com ara, una imatge falsa de Taylor Swift va ser vista 47 milions de vegades en la xarxa social X a la fi de gener abans de ser esborrada. Segons la premsa estayunidenca, la publicació va romandre in línia durant aproximadament 17 hores.

Si bé Nick Clegg admet que aquest etiquetatge a gran escala, a través de marcadors invisibles, "no eliminarà" totalment el risc de producció d'imatges falses, "certament minimitzarà" la seva proliferació "dins dels límits del que la tecnologia permet actualment".