LANSING, Michigan
El estado de Michigan se unirá a una iniciativa para frenar el uso engañoso de la inteligencia artificial y de contenido mediático manipulado mediante políticas estatales, mientras el Congreso y la Comisión de Elecciones Federales siguen debatiendo regulaciones de mayor alcance de cara a las elecciones de 2024.
Los equipos de campaña a nivel estatal y federal deberán informar con claridad qué anuncios políticos emitidos en Michigan se han creado con inteligencia artificial, en virtud de una norma que se espera que la gobernadora demócrata Gretchen Whitmer firme en los próximos días. También prohibiría el uso de videos generados con IA en los 90 días previos a unas elecciones, en caso de que no presenten un mensaje que aclare que se trata de material mediático manipulado digitalmente.
Los deepfakes son productos multimedia falsos que hacen parecer que una persona hizo o dijo algo que no hizo o dijo en la realidad. Son creados con la inteligencia artificial generativa, un tipo de IA que puede crear imágenes, videos o clips de audio convincentes en cuestión de segundos.
Hay una preocupación creciente acerca de que la IA generativa sea utilizada en la contienda presidencial de 2024 para confundir a los votantes, suplantar a candidatos y socavar las elecciones a una escala y velocidad nunca antes vistas.
Candidatos y comités que participan en la competencia electoral ya están experimentado con esa tecnología, que en años recientes se ha vuelto más barata, rápida y fácil de usar para el público.
El Comité Nacional Republicano difundió en abril un anuncio generado completamente por AI que pretendía mostrar el futuro de Estados Unidos si el presidente Joe Biden era reelegido. El anuncio, que decía en letra pequeña que se había hecho con IA, mostraba fotos falsas pero realistas de comercios cerrados, patrullas militares blindadas en las calles y un enorme aumento de la inmigración que sembraba el pánico.
Never Back Down, un comité de acción política que respalda al gobernador republicano de Florida Ron DeSantis, utilizó en julio una herramienta de clonación de voz por IA para imitar la voz del expresidente Donald Trump y hacer parecer que leía una publicación que hizo en redes sociales a pesar de que nunca hizo la declaración de viva voz.
Los expertos dicen que estos son sólo atisbos de lo que podría ocurrir si los equipos de campaña o actores externos deciden utilizar deepfakes de IA de maneras más maliciosas.
Hasta el momento, estados como California, Minnesota, Texas y Washington han aprobado leyes para regular los deepfakes en los anuncios políticos. Normas parecidas se han introducido en Illinois, Nueva Jersey y Nueva York, de acuerdo con lo que indica la organización sin ánimo de lucro Public Citizen.
Bajo la legislación de Michigan, toda persona, comité u otra entidad que distribuya publicidad de un candidato tendría que indicar claramente si utiliza IA generativa. La información tendría que tener el mismo tamaño de letra que la mayoría del texto de los anuncios impresos, y tendría que aparecer "durante al menos cuatro segundos en letras tan grandes como la mayor parte del texto" de los anuncios de televisión, según un análisis legislativo de la Agencia Fiscal de la Cámara de Representantes del estado.
Los deepfakes utilizados dentro de los 90 días previos a las elecciones tendrían que estar acompañados de un aviso legal separado que informe al espectador que el contenido está manipulado para representar un discurso o una conducta que nunca ocurrieron. Si el material multimedia es un video, el aviso debería de ser claramente visible y aparecer por toda la duración del video.
Los equipos de campaña podrían incurrir en un delito menor sancionable con hasta 93 días de cárcel, una multa de hasta 1.000 dólares, o ambas cosas, por la primera infracción de las leyes propuestas. El fiscal general o el candidato perjudicado por el contenido mediático engañoso podrían solicitar reparación al tribunal de circuito correspondiente.
Los legisladores federales de ambos bandos han evidenciado la importancia de regular los deepfakes en los anuncios políticos, y han realizado reuniones para debatir el asunto, pero el Congreso todavía no ha aprobado nada.
Una reciente propuesta de ley bipartidista del Senado, copatrocinado por la senadora demócrata Amy Klobuchar, el senador republicano Josh Hawley y otros, prohibiría los deepfakes "materialmente engañosos" relativos a los candidatos federales, con excepción de la parodia y la sátira.
La secretaria de Estado de Michigan, Jocelyn Benson, voló a Washington D.C. a principios de noviembre para participar en un debate bipartidista sobre IA y elecciones, y pidió a los senadores que aprobaran la ley federal sobre IA engañosa de Klobuchar y Hawley. Benson dijo que también animó a los senadores a volver a casa y presionar a sus legisladores estatales para que aprueben una legislación similar que tenga sentido para sus estados.
La ley federal es limitada en su capacidad para regular la IA a nivel estatal y local, dijo Benson en una entrevista, añadiendo que los estados también necesitan fondos federales para hacer frente a los desafíos planteados por la IA.
"Todo esto se haría realidad si el gobierno federal nos diera dinero para contratar a alguien que se encargara de la IA en nuestros estados y, del mismo modo, educara a los votantes sobre cómo detectar los deepfakes y qué hacer cuando los encuentras", dijo Benson. "Eso resolvería muchos de los problemas. No podemos hacerlo solos".
REGULARÍAN ´DEEPFAKES´La Comisión de Elecciones Federal tomó una medida procesal en agosto hacia la posible regulación de los deepfakes generados por IA en anuncios políticos en virtud de sus normas vigentes contra la "tergiversación fraudulenta". Aunque la comisión celebró un periodo de comentarios públicos sobre la petición, presentada por Public Citizen, aún no se ha pronunciado.
Las empresas de redes sociales también han anunciado algunas directrices destinadas a mitigar la propagación de deepfakes perjudiciales. Meta, propietaria de Facebook e Instagram, anunció este mes que exigirá que los anuncios políticos que se publiquen en las plataformas indiquen si se han creado con IA. Google dio a conocer en septiembre una política similar de etiquetado de IA para los anuncios políticos que se reproducen en YouTube u otras plataformas de Google.