Meta, propietaria de Facebook, anunció este viernes importantes cambios en sus políticas sobre medios creados y alterados digitalmente, en vísperas de unas elecciones en Estados Unidos que pondrán a prueba su capacidad para vigilar los contenidos engañosos generados por las nuevas tecnologías de inteligencia artificial (IA).
El gigante de las redes sociales empezará a aplicar en mayo las etiquetas “Hecho con IA” a los vídeos, imágenes y audio generados por IA que se publiquen en sus plataformas, ampliando así una política que antes sólo se aplicaba a una pequeña parte de los vídeos manipulados, explicó en un blog la vicepresidenta de Política de Contenidos, Monika Bickert.
Bickert dijo que Meta también aplicará etiquetas separadas y más prominentes a los medios alterados digitalmente que plantean un “riesgo particularmente alto de engañar materialmente al público sobre un asunto de importancia”, independientemente de si el contenido fue creado utilizando IA u otras herramientas.
El nuevo enfoque cambiará el tratamiento que la empresa da a los contenidos manipulados. Se pasará de un enfoque centrado en la eliminación de un conjunto limitado de publicaciones a otro que mantendrá el contenido y proporcionará a los espectadores información sobre cómo se creó.
Meta ya había anunciado un plan para detectar las imágenes creadas con herramientas de IA generativa de otras empresas mediante marcadores invisibles integrados en los archivos, pero en aquel momento no dio una fecha de inicio.
Un portavoz de la empresa dijo que el nuevo enfoque de etiquetado se aplicaría a los contenidos publicados en los servicios de Facebook, Instagram y Threads de Meta. Sus otros servicios, incluidos WhatsApp y las gafas de realidad virtual, Quest, están cubiertos por normas diferentes.
Meta comenzará a aplicar las etiquetas de “alto riesgo” más prominentes de inmediato, dijo el portavoz.
Meta cambiará sus normas en vísperas de elecciones en EU
Los cambios se anuncian unos meses antes de las elecciones presidenciales estadounidenses de noviembre, que, según advierten los investigadores tecnológicos, podrían verse transformadas por las nuevas tecnologías de IA generativa.
Las campañas políticas ya han empezado a desplegar herramientas de IA en lugares como Indonesia, sobrepasando los límites de las directrices emitidas por proveedores como Meta y OpenAI, líder del mercado de IA generativa.
En febrero, la junta de supervisión de Meta calificó de “incoherentes” las normas de la empresa sobre manipulación de medios, tras revisar un vídeo del presidente de Estados Unidos, Joe Biden, publicado en Facebook el año pasado, en el que se alteraban imágenes reales para sugerir erróneamente que se había comportado de forma inapropiada.
Se permitió que el vídeo siguiera colgado, ya que la política de “medios manipulados” de Meta sólo prohíbe los vídeos alterados engañosamente si fueron producidos por inteligencia artificial o si hacen que parezca que las personas dicen palabras que en realidad no dijeron.
La junta directiva dijo que la política también debería aplicarse a los contenidos no generados por IA, que “no son necesariamente menos engañosos” que los generados por IA, así como a los contenidos de sólo audio y a los vídeos que muestran a personas haciendo cosas que en realidad nunca hicieron.