plg_search_media
Search - EDocman
Buscar - Categorías
Buscar - Contactos
Buscar - Contenido
Buscar - Canales electrónicos
Buscar - Etiquetas

Número - 141

  • Piden senadoras que esta herramienta no reproduzca prácticas violentas o discriminatorias.  

 

Este martes se llevó a cabo en el Senado, la cuarta mesa de análisis sobre inteligencia artificial, en la que se abordaron temas relacionados con el género, la inclusión y responsabilidad social en el uso de esta herramienta.  

 

La senadora Alejandra Lagunes Soto Ruíz, del PVEM y quien organizó este ciclo de mesas, afirmó que es indispensable garantizar la participación de las mujeres y de grupos sociales, así como evitar la discriminación, violencia de género o racial en el uso de herramientas tecnológicas.  

 

La senadora Claudia Ruiz Massieu Salinas dijo que 85 por ciento de los programadores en áreas de inteligencia artificial son hombres, de acuerdo con la UNESCO, lo que se traduce en que alrededor de ocho de cada 10 personas reflejan sesgos naturales de un hombre y condicionan el contenido que se inserta en estas herramientas tecnológicas.  

 

Recordó que estas innovaciones emergentes, como los asistentes personales, son sistemas que funcionan con algoritmos y datos que son provistos por seres humanos, a fin de que puedan seguir instrucciones, pero esto depende de la información que contienen.  

 

Por ello, Claudia Ruiz Massieu consideró importante analizar que no haya sesgos de género o raciales en el desarrollo de este tipo de tecnologías, para que no se reproduzcan actitudes ni conductas de discriminación o violencia; además, cuestionó la forma en que se puede garantizar que las programaciones reflejen la inclusión de la población.  

 

La especialista Aimmé Vega Montiel, representante de la UNESCO, afirmó que la visión tecnocentrista, que está vinculada con el desarrollo de la inteligencia artificial, agudiza los problemas de desigualdad y discriminación, feminización, precarización, hipersexualización, así como los 25 tipos de violencia digital. 

 

Advirtió que hay investigaciones que revelan que el cuerpo de las mujeres son un generador de datos, a través de los cuales, la inteligencia artificial determina si son acreedoras a un servicio de crédito o de asistencia social.  

 

En tanto, la especialista Adriana Labardini expresó que, ante la transición del mundo físico al terreno digital, es necesario detener la violencia contra las mujeres en las empresas, academia, sectores privado y social. Además de reflexionar e identificar los aspectos que pueden dañar a este sector con el uso de la tecnología.  

 

Dijo que se debe implementar una metodología de inclusión, erradicación de las diversas formas de discriminación en materia de género, medidas de corrección ante decisiones que tome las tecnologías, sesgos en las bases de datos o algoritmos, así como establecer a quien se debe acudir para la aplicación de la justicia, y determinar si se tiene que judicializar.