Volver

¿Error humano o fallo algorítmico? Quién asume la culpa cuando la IA despide mal

El caso real que encendió las alarmas: En 2023, una fintech despidió al 10% de su plantilla usando un algoritmo de «bajo rendimiento». La investigación posterior reveló que el sistema penalizaba:

  • Empleados con licencias médicas (>3 días ausentes = «bajo compromiso»).

  • Trabajadores en zonas horarias periféricas (menos reuniones en horario central = «baja colaboración»).
    ¿Fue culpa de la IA, de Recursos Humanos (RRHH) o de los líderes que exigieron «optimización rápida»? Este dilema legal y ético define el lado oscuro de la automatización en decisiones críticas.

3 Fallos Estruendosos (y lo que nos enseñan):

  1. El «falso positivo» de ChatGPT en una startup:

    • Despidieron a un desarrollador porque un modelo generó un informe falso sobre «filtración de datos».

    • Consecuencia: Demanda por difamación y $500K en indemnizaciones.

  2. El sesgo geográfico de Uber (2022):

    • Su IA de retención despidió a 600+ conductores por «quejas recurrentes», ignorando que el 80% eran fraudulentas (MIT Tech Review).

    • Error clave: Entrenaron el algoritmo solo con datos de ciudades centrales.

  3. La purga de ciberseguridad en un banco europeo:

    • Un algoritmo entrenado con datos pre-pandemia clasificó como «redundantes» a expertos en ciberdefensa… mientras los ataques aumentaban 300%.

    • Coste: $10 millones en contrataciones de emergencia + multa regulatoria.

La Triple Falla (y quién responde):

🔴 Fallo 1: Datos envenenados

  • Responsable: Equipo de ciencia de datos.

  • Ejemplo: Si los datos históricos muestran despidos masivos post-maternidad, la IA replicará el sesgo.

  • Dato: 68% de los modelos de desempeño tienen sesgos de género (AI Now Institute).

🔴 Fallo 2: Supervisión humana ausente

  • Responsable: RRHH y líderes operativos.

  • Caso Zoom 2020: 60 despidos automáticos por «baja productividad» en empleados que usaban herramientas no rastreables.

  • Norma de oro: Ningún despido debe ejecutarse sin validación humana (Directiva UE 2024/IA).

🔴 Fallo 3: Opacidad algorítmica

  • Responsable: Proveedores de IA.

  • Problema: Si ni siquiera los desarrolladores entienden el «por qué» de la decisión (caja negra), la rendición de cuentas se evapora.

Soluciones: Los 3 Escudos Impenetrables

🛡️ Escudo Técnico

  • Auditorías de sesgo cada 90 días (ej.: IBM elimina 32 variables sensibles en sus modelos).

  • Uso de «datos sintéticos diversos» para entrenar algoritmos.

⚖️ Escudo Legal

  • Cláusulas de responsabilidad sólidas con proveedores de IA (como las de la Ley IA de la UE).

  • Derecho a explicación para empleados: Nueva York exige revelar métricas usadas en despidos automatizados (Local Law 144).

👥 Escudo Humano

  • Comités éticos RRHH-TI que revisen cada caso (Telefónica usa paneles de 5 expertos).

  • Regla del 3-Ojos: Todo despido sugerido por IA debe ser validado por: 1) Jefe directo, 2) RRHH, 3) Comité ético.

Conclusión: La culpa es del sistema, no del algoritmo

«La IA no comete errores; los sistematiza. Un despido injusto con algoritmos es un fracaso de gobernanza, no de tecnología.»
— Kate Crawford, Atlas of AI

Los hechos son claros:

  • Los proveedores de IA responden si ocultaron riesgos (caso HireVue 2021).

  • RRHH es corresponsable por no auditar/interpretar resultados.

  • La alta dirección asume daños si priorizó velocidad sobre justicia.

El futuro exige:
Seguros de IA: Aseguradoras como Lloyd’s ya ofrecen cobertura por errores algorítmicos.
Certificaciones éticas: El 62% de las empresas del S&P 500 tienen un Chief AI Ethics Officer (Deloitte).
Transparencia radical: Empleados deben conocer los criterios que afectan su permanencia.

La próxima vez que un algoritmo sugiera un despido, recuerde: La tecnología recomienda, los humanos deciden… y asumen las consecuencias.

One Select