El desarrollo y uso de la Inteligencia Artificial (IA) debe analizarse con una visión crítica, pues si bien ofrece beneficios significativos, también puede acentuar o replicar desigualdades estructurales relacionadas con género, clase y raza, advirtió Rosalía Guerrero Escudero, profesora investigadora de la Universidad Autónoma del Estado de Hidalgo (UAEH).
La académica, adscrita al Instituto de Ciencias Sociales y Humanidades (ICSHu), explicó que estos sistemas no son neutrales, ya que operan a partir de bases de datos alimentadas por programadores con visiones del mundo condicionadas por sus propios conocimientos sociales y privilegios.
SESGOS
Señaló que, en su mayoría, los desarrolladores son hombres con formación tecnológica, lo que influye en los resultados que arrojan las plataformas de IA.
Muchas de estas tecnologías, añadió, se entrenan con información proveniente de países del primer mundo, lo que reduce la diversidad cultural y genera representaciones sesgadas.
“Un ejemplo de ello es que cuando uno como usuario le pide a una inteligencia artificial generar la imagen de una persona exitosa, el resultado suele ser un hombre blanco, guapo, en traje y dentro de una ciudad. Esto deja de lado a otras razas, clases sociales y géneros”.
Advirtió que en una era donde los algoritmos deciden desde qué contenido vemos en redes sociales hasta quién accede a un empleo, la IA se ha convertido en una fuerza invisible que moldea oportunidades, relaciones y derechos.
“Cada vez más estudios revelan que en ellas se reflejan los prejuicios históricos y estructurales de las sociedades que las crean y lo hacen con una eficiencia preocupante, afectando a millones de personas al mismo tiempo sin siquiera darnos cuenta”.
USO CRÍTICO Y RESPONSABLE
Frente a este panorama, subrayó la necesidad de incluir a personas de distintos sectores de la sociedad en el desarrollo de estas tecnologías, establecer regulaciones que eviten la discriminación automatizada y promuevan el acceso equitativo.
Destacó que organismos y empresas internacionales han comenzado a impulsar principios de ética algorítmica y justicia digital.
Asimismo, consideró fundamental que los usuarios adopten una actitud crítica al usar estas herramientas.
Además de conocer el funcionamiento de los sistemas inteligentes, es necesario saber emplear los llamados prompts, las instrucciones que se dan a la IA, para obtener resultados más pertinentes a su contexto sociocultural.
Advirtió que, si esta problemática no se aborda con urgencia, se corre el riesgo de automatizar la desigualdad y dificultar aún más su detección y combate.
