Meta identificará imágenes generadas por IA en FB e Instagram

El gigante tecnológico estadounidense Meta anunció que en los próximos meses implementará un sistema para identificar imágenes generadas por inteligencia artificial (IA) en sus plataformas de redes sociales, Facebook, Instagram y Threads.

El responsable de asuntos internacionales de Meta, Nick Clegg, detalló en un blog que etiquetarán las imágenes publicadas por los usuarios, siempre y cuando se detecten los indicadores que revelen que son generadas por IA, cumpliendo con las normas de la industria. Actualmente, la compañía ya identifica las imágenes generadas con su propia herramienta, Meta IA, lanzada en diciembre.

Además, Meta tiene la intención de implementar esta identificación también en contenidos creados con herramientas de otras empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock, según señaló Clegg.

El crecimiento de la IA generativa ha provocado preocupaciones sobre el posible uso de estas herramientas para difundir desinformación y sembrar caos político, ya que casi la mitad de la población mundial estará celebrando elecciones este año.

OpenAI, la empresa californiana creadora de ChatGPT, también ha anunciado medidas para combatir la desinformación y ha dejado claro que no permitirá el uso de sus herramientas tecnológicas con fines políticos.

La compañía se compromete a garantizar que su tecnología no perjudique el proceso democrático y ha implementado salvaguardas en su generador de imágenes DALL-E 3 para evitar la generación de imágenes de personas reales, especialmente candidatos.

Con estas acciones, Meta y OpenAI buscan abordar los desafíos éticos y de seguridad planteados por la IA generativa en el ámbito de las redes sociales, además de proteger la integridad de la información y el proceso democrático, retos que se suman a los trabajos para erradicar la proliferación descontrolada de contenidos degradantes, que han dado como resultado el fenómeno de los “deepfakes” pornográficos, donde se utilizan imágenes falsas de mujeres famosas y que también afectan a personas anónimas.

Con información de El Economista

error: Elementosmx