Forum

Avisos
Vaciar todo

Charlas proyecto EDIA - Ética en Inteligencia Artificial - Detección de Sesgos en Sistemas de Procesamiento de Lenguaje Natural  

  RSS

img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
20/10/2023 11:27 am  

Compartimos lo visto en la charla del 20/09/2023 sobre IA, Ética y Derechos Humanos en la exposición de dos destacadas ponentes: 

  • Beatriz Busaniche, Presidente de Fundación Vía Libre. 
  • Patricia Díaz Charquero, Miembro de DATA Uruguay y Coordinadora de Datysoc. 

Temas Abordados:

Sesgos en IA.

Se trato cómo los sesgos en los algoritmos de inteligencia artificial pueden tener un impacto significativo en la vida de las personas. Se exploraron ejemplos de resultados, como esto afecta para la creación y la negación de empleo debido a sesgos algorítmicos. Otro ejemplo que se mencionó es el problema de sesgos sociales y cómo pueden manifestarse en los datos de entrenamiento y el procesamiento de lenguaje natural, incluso en lenguajes que no tienen género gramatical.

La charla abordó la discriminación, diferenciando entre discriminación directa, que implica un trato desigual, y discriminación indirecta, que se refiere a prácticas en apariencia neutras pero que tienen un impacto desigual en los derechos de las personas. 

 Se resaltó la importancia de la detección de sesgos en la IA, como se mostró en el proyecto del MIT que expuso sesgos en la tecnología de reconocimiento facial. También se subrayó que a menudo es difícil determinar por qué ocurren estos sesgos. Debido a que el proceso de IA puede ser visto como una "caja negra" en ciertos casos, porque aunque podemos observar las entradas y las salidas del sistema, el funcionamiento interno y la lógica específica de cómo la IA llega a sus decisiones o resultados no siempre es transparente.

Ref.: Buolamwini, J. (2021). Algorithmic Justice League among Fast Company's most innovative companies in artificial intelligence for 2020/2021. Acceso web.

 

Transparencia Algorítmica.

Se destacó la importancia de la transparencia en los algoritmos de IA y se discutió cómo esta no se limita únicamente al código, sino que también abarca los datos de entrenamiento y el contexto en el que se desarrollan estas herramientas. 

En cuanto a la transparencia algorítmica, se destacó que esta no siempre es suficiente y que también se requiere transparencia en los datos de entrenamiento y en el contexto de creación de la herramienta. La importancia de los comités de ética y la necesidad de regulaciones se resaltaron como elementos clave.

Finalmente, se hizo hincapié en la importancia de realizar evaluaciones de impacto para comprender y abordar los sesgos en IA.
 

Regulaciones sobre Discriminación y Responsabilidad Civil.

Las ponentes proporcionaron información sobre cómo las regulaciones son fundamentales para abordar la discriminación en la IA y la responsabilidad civil de las organizaciones y desarrolladores de estas tecnologías. En el material adjunto van a poder ahondar en esta área.

 

Dejamos adjunto el material de la presentación.

Este debate ha sido modificado el hace 1 año 2 veces por giani.carlevaro

Citar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
22/10/2023 10:28 pm  

Compartimos lo visto en la charla del 12/10/2023 sobre Sesgo en Modelos de Lenguaje y uso de las herramientas del Proyecto EDIA. Temas abordados: Conceptos introductorios sobre Procesamiento de Lenguaje Natural y Modelos de Lenguaje, en la exposición del destacado ponente:

      • Licenciado en Ciencias de la Computación Guido Ivetta, de la Universidad Nacional de Córdoba y miembro de la Fundación Vía Libre.

ResponderCitar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
22/10/2023 10:31 pm  

Charla dada por el Licenciado en Ciencias de la Computación Guido Ivetta, de la Universidad Nacional de Córdoba y miembro de la Fundación Vía Libre.

Parte 2 - Charla 2 - Sesgo en Modelos de Lenguaje y uso de las herramientas del Proyecto EDIA.

Esta publicación ha sido modificada el hace 1 año por giani.carlevaro

ResponderCitar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
22/10/2023 10:34 pm  

Parte 3 - Charla 2 - Sesgo en Modelos de Lenguaje y uso de las herramientas del Proyecto EDIA.


ResponderCitar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
23/10/2023 4:06 pm  

Agregamos la charla dada por el Licenciado en Ciencias de la Computación Guido Ivetta, de la Universidad Nacional de Córdoba y miembro de la Fundación Vía Libre.

Sesgo en Modelos de Lenguaje y uso de las herramientas del Proyecto EDIA (Estereotipos y Discriminación en Inteligencia Artificial). 


ResponderCitar
img-perfil
(@giani-carlevaro)
Admin
Registrado: hace 4 años
Respuestas: 69
25/10/2023 3:10 pm  

Charla dada por el Licenciado en Ciencias de la Computación Guido Ivetta, de la Universidad Nacional de Córdoba y miembro de la Fundación Vía Libre:

Ejemplo usando la herramienta Proyecto EDIA (Estereotipos y Discriminación en Inteligencia Artificial)

 

Esta publicación ha sido modificada el hace 1 año por giani.carlevaro

ResponderCitar
img-perfil
(@nicolas-bentancor)
Registrado: hace 11 meses
Respuestas: 4
26/12/2023 10:41 pm  

Es necesario reconocer y minimizar los sesgos raciales, de género, de edad y de capacidad, entre otros, para garantizar que la tecnología no promulgue estereotipos dañinos.


ResponderCitar
img-perfil
(@mateo-duran)
Registrado: hace 1 año
Respuestas: 5
28/02/2024 11:30 pm  

Los ejemplos dados, como los sesgos en el reconocimiento facial y la discriminación en el procesamiento del lenguaje natural, son preocupantes y destacan la urgencia de acciones correctivas.

La transparencia en el diseño y la implementación de algoritmos de IA es fundamental para mitigar los efectos perjudiciales y garantizar la equidad y la justicia en su aplicación.

Gracias por compartir!


ResponderCitar
img-perfil
(@ana-dinardi)
Registrado: hace 7 meses
Respuestas: 2
29/04/2024 4:04 pm  

La información brindada es muy interesante, sobre todo me sorprendieron los resultados del estudio "Gender Shades".


ResponderCitar
img-perfil
(@ambard-florestabata)
Registrado: hace 7 meses
Respuestas: 1
05/05/2024 1:50 pm  

Preocupante el tema de sesgo y como la aplicación de la IA actualmente puede excluir a grupos


ResponderCitar