No te pierdas de esta entrevista con dos fabulosas expertas en inteligencia artificial, hablando sobre los sesgos que presenta la inteligencia artificial en los modelos generativos. Ejemplo: ChatGPT.
15 asistentes
Algunos de los temas que abordaremos:
🔍 Casos de ejemplo:
- Cómo herramientas como ChatGPT asocian roles de género estereotipados (ej.: "enfermera = mujer" o "programador = hombre").
- Generación de imágenes con DALL-E o Midjourney que refuerzan sesgos raciales o culturales.
- Algoritmos de atención médica que discriminan a pacientes negros o mujeres por datos históricos desiguales.
🌐 Impacto social:
Por ejemplo:
- La "mirada codificada" de la IA: cómo los prejuicios de programadores y usuarios podrían perpetúan exclusiones, especialmente de mujeres, minorías étnicas y comunidades del Sur global.
🛠️ Soluciones y ética:
- Herramientas como por ejemplo LangBiTe para detectar sesgos políticos, de género o xenófobos en IA.
- Estrategias regulatorias: la Ley de IA de la UE y la necesidad de transparencia en datos de entrenamiento.
- La importancia de equipos interdisciplinarios y auditorías independientes de la GenIA.
Detalles del evento en vivo:
📅 Fecha: Martes 12 de febrero de 2024
⏰ Horarios:
Argentina: 18:00
Bolivia: 17:00
Colombia: 19:00
AB InBev
Ingeniero de datos senior
CodeRoad Inc
Artificial Intelligence Engineer
Atrae Negocios
COO y Líder de Operaciones
GDG Cúcuta
Software Engineer / Organizer GDG Cúcuta
Organizer
MindTech
Machine Learning & MLOps Engineer
Ingeniera de Sistemas
Atrae Negocios
COO
Contáctenos