Sobrescribir enlaces de ayuda a la navegación
Una IA sin control: el peligro de crear un "monstruo de Frankenstein"

El Alto Comisionado de la ONU para los Derechos Humanos alertó este jueves sobre el riesgo de que la inteligencia artificial se convierta en "el monstruo de Frankenstein" si quienes la desarrollan carecen de una comprensión profunda de los principios éticos y sociales fundamentales.
"Cuando los desarrolladores tienen un conocimiento muy superficial de los principios fundamentales, me recuerda un poco al monstruo de Frankenstein: desarrollas algo que ya no controlas", advirtió Volker Türk, durante la Cumbre sobre el Impacto de la IA en Nueva Delhi. "Si no eres consciente de los peligros y los riesgos, puedes causar estragos".
El máximo responsable de derechos humanos de Naciones Unidas instó a gobiernos y empresas a establecer urgentemente salvaguardas para evitar que la tecnología profundice la desigualdad, amplifique los sesgos y genere daños en el mundo real.
Los riesgos: desigualdad, prejuicios y discriminación
Türk identificó la inequidad como uno de los peligros más acuciantes, y celebró que la cumbre se celebrara en India precisamente para garantizar que estas herramientas "se utilicen y desarrollen en todas partes".
"Si los datos solo se recogen de una parte del mundo, si solo los hombres desarrollan la IA, se incorporarán sesgos inconscientes", señaló. "Es clave prestar atención a los grupos vulnerables y las minorías, porque a menudo quedan excluidos del desarrollo de la IA".
La metáfora del genio liberado
El Alto Comisionado también comparó el avance descontrolado de la IA con "dejar salir el genio de la botella". Puso como ejemplo el caso de Myanmar, donde las plataformas de redes sociales amplificaron el discurso de odio contra los rohinyás.
Türk advirtió además sobre el impacto de la desinformación en el tejido social: "Crea sociedades divididas y polarizadas donde cada uno vive en su propia burbuja". También mencionó el preocupante aumento de la misoginia: "Muchas mujeres me dicen que están pensando en dejar la política por lo que experimentan en las redes sociales".
Lo que hay que exigir
Türk comparó la necesidad de regulación con la industria farmacéutica: "Cuando se trata de herramientas de IA, debemos exigir a las empresas que realicen una evaluación de impacto sobre derechos humanos cuando las diseñan, las lanzan y las comercializan".
Recordó que algunas empresas tecnológicas tienen presupuestos superiores a los de países pequeños, lo que les permite ejercer un poder global. "Puedes usar ese poder para el bien —salud, educación, desarrollo sostenible— pero también para el mal: armas letales autónomas, desinformación, odio y misoginia violenta".
La visión de futuro
Preguntado por cómo sería una IA responsable dentro de cinco años, Türk imaginó un escenario de "desarrollo inclusivo, donde el poder ya no esté concentrado en un puñado de empresas de América del Norte, y donde la IA se construya sobre la riqueza y diversidad de todas las sociedades".
"Si no presentamos una visión de un mundo mejor", concluyó, "podríamos terminar aún más polarizados y con guerras que ya no están controladas por humanos. Y eso es muy peligroso".