Noticias

Fallas de Inteligencia Artificial

El chatbot de Gemini y un producto defectuoso que lo convertiría en el símbolo de la IA demasiado progresista que los conservadores esperaban desarmar
  • Por: Agencia AP
  • 28 / Abril / 2025 -
  • COMPARTIR
Fallas de Inteligencia Artificial

Ellis Monk, profesor de Sociología de la Universidad de Harvard y desarrollador de la Escala Monk de Tonos de Piel.

CAMBRIDGE, Massachusetts.- Después de retirarse de sus programas de diversidad, equidad e inclusión en el lugar de trabajo, las empresas tecnológicas podrían ahora enfrentar un segundo reajuste sobre sus esfuerzos de inclusividad en productos de inteligencia artificial.

En la Casa Blanca y el Congreso liderado por los republicanos, la idea de que la IA es demasiado progresista ha reemplazado a la discriminación algorítmica dañina como el problema a resolver. Los esfuerzos pasados para “avanzar en la equidad” en el desarrollo de IA y frenar la producción de “resultados dañinos y sesgados” son ahora objeto de investigación, según citaciones enviadas a Amazon, Google, Meta, Microsoft, OpenAI y otras diez empresas tecnológicas el mes pasado por el Comité Judicial de la Cámara de Representantes.

Y la oficina que establece los estándares del Departamento de Comercio de Estados Unidos ha eliminado menciones de equidad en IA, seguridad y “IA responsable” en su llamado a la colaboración con investigadores externos. En su lugar, da instrucciones a los científicos de que se centren en “reducir el sesgo ideológico” de una manera que “permita la prosperidad humana y la competitividad económica”, según una copia del documento obtenida por The Associated Press.

En cierto modo, los trabajadores tecnológicos están acostumbrados a un cambio brusco de prioridades impulsadas por Washington que afectan su trabajo.

Pero el último cambio ha generado preocupaciones entre los expertos en el campo, incluido el sociólogo de la Universidad de Harvard Ellis Monk, quien hace varios años fue contactado por Google para ayudar a hacer sus productos de IA más inclusivos.

En ese entonces, la industria tecnológica ya sabía que tenía un problema con la rama de la IA que entrena a las máquinas para “ver” y entender imágenes. La visión por computadora tenía un gran potencial comercial, pero reflejaba los sesgos históricos encontrados en tecnologías de cámaras anteriores que retrataban a personas negras y morenas de manera poco favorecedora.

“Las personas negras o de piel más oscura aparecían en la imagen y a veces nos veíamos ridículos”, dijo Monk, investigador del colorismo, una forma de discriminación basada en los tonos de piel de las personas y otras características.

Google adoptó una escala de color inventada por Monk que mejoró cómo sus herramientas de imagen de IA retratan la diversidad de tonos de piel humana, reemplazando un estándar de décadas originalmente diseñado para médicos que trataban a pacientes blancos de dermatología.

“Los consumidores definitivamente tuvieron una respuesta muy positiva a los cambios”, expresó.

Ahora Monk se pregunta si tales esfuerzos continuarán en el futuro. Aunque no cree que su Escala Monk de tonos de piel se vea amenazada porque ya está integrada en docenas de productos en Google y otros lugares, incluidos teléfonos con cámara, videojuegos, generadores de imágenes de IA, él y otros investigadores temen que el nuevo ambiente esté paralizando futuras iniciativas y financiamiento para hacer que la tecnología funcione mejor para todos.

“Google quiere que sus productos funcionen para todos, en India, China, África, etcétera. Esa parte es un poco inmune al DEI”, comentó Monk, que empleó un acrónimo en inglés para diversidad, equidad e inclusión. “Pero, ¿podría reducirse el financiamiento futuro para ese tipo de proyectos? Absolutamente, cuando el ambiente político cambia y cuando hay mucha presión para llegar al mercado muy rápidamente”.

Trump ha recortado cientos de subvenciones de financiamiento en ciencia, tecnología y salud que tocan temas de DEI, pero su influencia en el desarrollo comercial de chatbots y otros productos de IA es más indirecta. Al investigar a las empresas de IA, el representante republicano Jim Jordan, presidente del comité judicial, dijo que quiere averiguar si el gobierno del expresidente Joe Biden “coaccionó o coludió con” ellas para censurar expresiones legales.

Michael Kratsios, director de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca, dijo este mes en un evento en Texas que las políticas de IA de Biden estaban “promoviendo divisiones sociales y redistribución en nombre de la equidad”.

El gobierno de Trump declinó autorizar una entrevista a Kratsios, pero citó varios ejemplos de lo que quiso decir. Uno era una línea de una estrategia de investigación de IA de la era Biden que decía: “sin controles adecuados, los sistemas de IA pueden amplificar, perpetuar o exacerbar resultados inequitativos o indeseables para individuos y comunidades”.

Incluso antes de que Biden asumiera el cargo, un creciente cuerpo de investigación y anécdotas personales estaba atrayendo atención sobre los daños del sesgo de la IA.

Un estudio mostró que la tecnología de vehículos autónomos tiene dificultades para detectar a peatones de piel más oscura, lo que les pone en mayor peligro de ser atropellados. Otro estudio que pedía a generadores populares de imágenes a partir de texto que hicieran una imagen de un cirujano encontró que producían un hombre blanco aproximadamente el 98% del tiempo, mucho más alto que las proporciones reales incluso en un campo dominado por hombres.

EL MAÑANA RECOMIENDA