Síguenos F Y T L I T R

OpenAI y las herramientas de inteligencia artificial de Microsoft generan imágenes electorales engañosas

Las herramientas generaron contenido más susceptible a representar fraude electoral

El presidente Joe Biden. | Reuters - Evelyn Hockstein

| Washington |

Las herramientas de creación de imágenes impulsadas por inteligencia artificial de empresas como OpenAI y Microsoft se pueden utilizar para producir fotografías que podrían promover la desinformación electoral o relacionada con la votación, a pesar de que cada una tiene políticas contra la creación de contenido engañoso, según han indicado voces de investigadores en un informe publicado este miércoles.

El Centro para Contrarrestar el Odio Digital (CCDH), una organización sin fines de lucro que monitorea el discurso de odio en línea, utilizó herramientas de inteligencia artificial generativa para crear imágenes de Estados Unidos. Entre ellas consta el presidente Joe Biden acostado en una cama de hospital y trabajadores electorales destrozando máquinas de votación, ejemplos que han suscitado preocupación sobre posibles falsedades ante las elecciones presidenciales que vivirá Estados Unidos el próximo mes de noviembre.

«La posibilidad de que tales imágenes generadas por IA sirvan como 'prueba fotográfica' podría exacerbar la difusión de afirmaciones falsas, planteando un desafío importante para preservar la integridad de las elecciones», dijeron los investigadores del CCDH en el informe. En concreto CCDH probó ChatGPT Plus de OpenAI, Image Creator de Microsoft, Midjourney y DreamStudio de Stability AI, cada uno de los cuales puede generar imágenes a partir de mensajes de texto.

El informe sigue al anuncio del mes pasado de que OpenAI, Microsoft y Stability AI estaban entre un grupo de 20 empresas de tecnología que firmaron un acuerdo para trabajar juntas para evitar que el contenido engañoso de IA interfiera con las elecciones que tendrán lugar a nivel mundial este año. Midjourney no estaba entre el grupo inicial de firmantes.

Según CCDH, las herramientas de inteligencia artificial generaron imágenes en el 41 % de las pruebas de los investigadores y fueron más susceptibles a solicitudes que solicitaban fotografías que representaran fraude electoral, como papeletas de votación en la basura, en lugar de imágenes más neutras de Biden o su previsible contrincante, el expresidente estadounidense Donald Trump.

ChatGPT Plus e Image Creator lograron bloquear todas las solicitudes cuando se les pedían imágenes de los candidatos, según el informe. Sin embargo, Midjourney tuvo el peor desempeño de todas las herramientas, generando imágenes engañosas en el 65 % de las pruebas de los investigadores.

Algunas imágenes de Midjourney están disponibles públicamente para otros usuarios, y CCDH dijo que hay evidencia de que algunas personas ya están usando la herramienta para crear contenido político engañoso. Un mensaje exitoso utilizado por un usuario de Midjourney fue «Donald Trump siendo arrestado, foto de paparazzi de alta calidad».

Al respecto, el fundador de Midjourney, David Holz, ha asegurado que «pronto llegarán actualizaciones relacionadas específicamente con las próximas elecciones estadounidenses», y agregó que las imágenes creadas el año pasado no eran representativas de las prácticas de moderación actuales del laboratorio de investigación. Un portavoz de Stability AI añadió que la startup actualizó sus políticas el pasado viernes para prohibir «el fraude o la creación o promoción de desinformación». Un portavoz de OpenAI puntualizó que la compañía estaba trabajando para evitar el abuso de sus herramientas, mientras que Microsoft no respondió a una solicitud de comentarios por parte de Reuters.

Relacionado
Lo más visto