Regularían los anuncios políticos creados por IA

Si se aprueba, la propuesta anunciada el miércoles pedirá a las emisoras que verifiquen con los anunciantes políticos si sus contenidos se han generado con herramientas de IA, como creadores de texto a imagen o programas de clonación de voz

NUEVA YORK, NY

La presidenta de la Comisión Federal de Comunicaciones de Estados Unidos (FCC por su siglas en inglés) presentó el miércoles una propuesta para exigir a los anunciantes políticos que informen cuando utilicen contenidos generados por inteligencia artificial en anuncios de radio y televisión.

De ser adoptada por la comisión de cinco miembros, la propuesta añadiría un nivel de transparencia que muchos legisladores y expertos en IA han estado pidiendo ante el rápido avance de las herramientas de IA generativa que producen imágenes, videos y clips de audio realistas que pueden confundir a los votantes en las próximas elecciones de Estados Unidos.

Sin embargo, el principal regulador de las telecomunicaciones del país sólo tendría autoridad sobre la televisión, la radio y algunos proveedores de televisión por cable. Las nuevas normas, de adoptarse, no cubrirían el extraordinario incremento de la publicidad en plataformas digitales y de streaming.

"A medida que las herramientas de inteligencia artificial se vuelven más accesibles, la comisión quiere asegurarse de que los consumidores estén plenamente informados de cuándo se utiliza la tecnología", dijo la presidenta de la FCC, Jessica Rosenworcel, en un comunicado el miércoles. "Hoy he compartido con mis colegas una propuesta que deja claro que los consumidores tienen derecho a saber cuándo se utilizan herramientas de IA en los anuncios políticos que ven, y espero que actúen con rapidez en este asunto".

Con esta propuesta, es la segunda vez este año que la comisión empieza a tomar medidas significativas para combatir el creciente uso de herramientas de inteligencia artificial en la comunicación política. Anteriormente, la FCC había confirmado que las herramientas de clonación de voz mediante IA en las llamadas automatizadas están prohibidas por la legislación vigente. 

Esa decisión se tomó tras un episodio ocurrido en las elecciones primarias de Nueva Hampshire, cuando se hicieron llamadas automatizadas en las que se utilizó un software de clonación de voz para imitar al presidente Joe Biden con el fin de disuadir a los votantes de acudir a las urnas.


Si se aprueba, la propuesta anunciada el miércoles pedirá a las emisoras que verifiquen con los anunciantes políticos si sus contenidos se han generado con herramientas de IA, como creadores de texto a imagen o programas de clonación de voz. La FCC tiene autoridad sobre la publicidad política transmitida por los canales de radio y TV en virtud de la Ley de Reforma de las Campañas de 2002.


Los comisionados tendrán que debatir varios detalles de la propuesta, como si las emisoras tendrán que revelar los contenidos generados por IA en un mensaje al aire o sólo en los archivos políticos de la emisora de radio o televisión, que son públicos. También tendrán que llegar a un acuerdo sobre la definición de contenido generado por IA, un reto que se ha vuelto difícil a medida que las herramientas de retoque y otros avances de la IA se integran cada vez más en todo tipo de software creativo.


Rosenworcel espera que la normativa entre en vigor antes de las elecciones.


Jonathan Uriarte, portavoz y asesor político de Rosenworcel, dijo que la presidenta de la FCC pretende definir el contenido generado por IA como aquel generado mediante tecnología computacional o sistemas basados en máquinas, "incluyendo, en particular, voces generadas por IA que suenan como voces humanas, y actores generados por IA que parecen ser actores humanos". Pero dijo que su proyecto de definición probablemente cambiará a lo largo del proceso normativo.


La propuesta llega en un momento en que las campañas políticas ya han experimentado mucho con la IA generativa, desde la creación de chatbots para sus sitios web hasta la creación de videos e imágenes mediante esta tecnología.


El año pasado, por ejemplo, el Comité Nacional Republicano publicó un anuncio generado totalmente por IA que intentaba mostrar un futuro distópico en caso de otro gobierno de Biden. Utilizaba fotos falsas pero realistas que mostraban comercios tapiados, patrullas militares en las calles y oleadas de migrantes que sembraban el pánico.


Rob Weissman, presidente del grupo activista Public Citizen, dijo que se alegraba de ver que la FCC "da un paso adelante para abordar de forma proactiva las amenazas de la inteligencia artificial y los deepfakes, especialmente para la integridad de las elecciones".