Geseme News

inteligencia artificial

16/10/2025

Cuando la IA llega al núcleo de decisión: mejores decisiones en PRL, prevención de accidentes y bienestar

A pesar de los esfuerzos significativos en formación, auditorías y mediciones, la realidad en el ámbito de la Prevención de Riesgos Laborales sigue siendo que muchas organizaciones solo actúan después de que ocurra un accidente. Este sistema cíclico de reacción y corrección, donde se investiga el incidente y se implementan medidas correctivas, ha demostrado ser ineficaz.  Sin embargo, la llegada de la inteligencia artificial (IA) ofrece una oportunidad más para transformar este enfoque, haciendo mucho más ágil y sencillo el trabajar la prevención del «antes”, evitando que ocurra un «accidente después».

La clave radica en priorizar dónde mirar, cuándo intervenir y qué arreglar primero, todo ello en un marco de gobernanza, confianza y enfoque ético.

El problema real (y cotidiano)

En muchos casos, la prevención de riesgos laborales se enfrenta a una gran cantidad de datos que son fundamentales a la hora de evitar accidentes. Desde incidentes y partes de accidentes hasta inspecciones y casi-accidentes, la cantidad de información disponible es abrumadora. Sin embargo, muchos equipos se enfrentan a limitaciones de recursos, lo que les obliga a tomar decisiones reactivas y, a menudo, tardías. 

A esta situación se suma la proliferación de “soluciones” tecnológicas que funcionan como cajas negras: prometen mucho, pero ofrecen poca transparencia, generando dudas sobre su eficacia y desatando preocupaciones legales y éticas. Esto crea un círculo vicioso que dificulta la implementación de medidas efectivas de prevención.

Lo que sí aporta (casos de uso real)

La inteligencia artificial puede ser de gran ayuda en la gestión de riesgos laborales, siempre que se utilice para organizar y priorizar el ruido de datos. Desde Geseme, te explicamos algunas aplicaciones prácticas que están demostrando su valía:

1. Predicción de eventos graves

La IA no intenta adivinar accidentes específicos, sino que se enfoca en puntuar el riesgo en función de diversos factores como centro de trabajo, turno y actividad. Al utilizar señales que ya están disponibles, como casi-accidentes, horas extras, rotación del personal, condiciones climáticas y cambios en los procesos, se pueden identificar áreas de alto riesgo. Esto permite programar inspecciones y asignar recursos donde la probabilidad de lesiones graves es más alta, reduciendo así la incidencia de accidentes.

2. Analizar automáticamente información

Las descripciones de incidentes y las investigaciones suelen contener patrones ocultos. Mediante el análisis de texto, la IA puede agrupar descripciones similares, como “atrapamiento en limpieza” o “resbalón en pasillo húmedo”, permitiendo que los equipos de PRL puedan identificar y abordar causas comunes en lugar de tratar síntomas aislados. Esta capacidad para extraer información resulta extremadamente útil p en la identificación de riesgos recurrentes.

3. Visión artificial en convivencia hombre–máquina

La implementación de sistemas de visión artificial es una herramienta de mucha ayuda a la hora de supervisar el entorno laboral. Cámaras equipadas con inteligencia artificial pueden detectar la ausencia de equipos de protección individual (EPI), la intrusión en zonas prohibidas o casi-accidentes en pasillos. Estos sistemas no sustituyen al supervisor, pero actúan como herramientas complementarias que pueden ser especialmente útiles a la hora de generar alertas que permitan intervenir y actuar de manera inmediata.

4. Mantenimiento predictivo de resguardos y dispositivos de seguridad

La IA puede jugar un papel crucial en la anticipación de fallos en sistemas de seguridad, como enclavamientos, cortinas y paradas de emergencia. Al utilizar sensores y registros, se pueden identificar patrones que indican un posible fallo antes de que ocurra, evitando así situaciones de “falsa seguridad” que pueden resultar en accidentes graves.

5. Analítica de bienestar sin invadir la privacidad

La salud y bienestar de los empleados son fundamentales para prevenir errores humanos. Utilizando datos agregados como absentismo, rotación y clima laboral, la IA puede detectar tendencias de fatiga y sobrecarga. El objetivo aquí no es monitorizar a las personas, sino dimensionar el trabajo y prevenir el error debido al agotamiento.

Gobierno responsable: la condición de posibilidad

Si la IA va a integrarse en la PRL, debe hacerse con garantías claras. Esto implica establecer principios de gobernanza que aseguren el uso responsable y ético de la tecnología.

La persona en el foco de atención: La IA debe ser una herramienta que recomienda, pero la decisión final siempre debe recaer en las personas.

  • Transparencia: Los algoritmos empleados en la toma de decisiones deben ser transparentes, permitiendo auditorías y revisiones por parte del comité de seguridad y salud.
  • Calidad de la información:  Es fundamental contar con taxonomías normalizadas y un diccionario común que asegure la calidad de la información utilizada.
  • Ética y sesgos: Debe evaluarse y mitigar cualquier sesgo en los datos que pueda afectar a diferentes grupos (por género, edad, turno, etc.) y medir el impacto de las decisiones antes y después de cada cambio.
  • Seguridad y privacidad (RGPD):La información recopilada debe ser anónima, mínima y  limitada en el tiempo. La prevención debe enfocarse en tendencias, no en historiales personales eternos.

Primeros 90 días: de la idea a la utilidad

Adopta una visión práctica. En lugar de embarcarte en un mega-proyecto, es preferible que inicies las diferentes funcionalidades de la IA con una prueba piloto acotada en uno o dos centros, con objetivos medibles. Por ejemplo, se podría buscar aumentar las inspecciones en las zonas de mayor riesgo en un 30% y reducir los casi-accidentes reportados en un 20% en un plazo de tres meses.

Además, es recomendable que establezcas un listado de datos mínimos, evitando recopilar más información de la necesaria. Un modelo simple de priorización y un tablero con indicadores clave ayudarán a mantener el enfoque en la mejora continua y a partir de ahí, escalar.

Es igualmente importante que establezcas rituales operativos, como un comité quincenal de seguridad de datos y la revisión de falsos positivos/negativos. Esto permitirá ajustar el modelo en función del feedback recibido de mandos y delegados.

Riesgos y límites (porque también los hay)

Es fundamental ser consciente de los riesgos asociados al uso de inteligencia artificial en PRL:

  • No todo es la IA: La tecnología por sí sola no cambiará comportamientos; se requiere liderazgo, formación y disciplina operativa para que la IA tenga un impacto real.
  • Cuida la confianza: Si los empleados perciben que están siendo vigilados, se corre el riesgo de perder la comunicación abierta sobre incidentes y casi-accidentes.
  • No lo compliques demasiado: Es preferible un modelo explicable que funcione “suficientemente bien” y sea utilizado regularmente, en lugar de una solución compleja que nadie comprenda o mantenga.

Un cambio de posición: de apagar fuegos a anticipar

La inteligencia artificial no pretende reemplazar las prácticas tradicionales de prevención, sino más bien organizarlas y acelerarlas.

Nos empuja hacia una toma de decisiones más proactiva, con una mayor precisión y enfoque en las áreas donde el riesgo es real. En lugar de reaccionar a los accidentes, la IA puede ser una ayuda para anticiparse a riesgos y priorizar lo que realmente importa: la seguridad de los trabajadores y la continuidad del bienestar en el entorno laboral.

En conclusión, la pregunta ya no es si “la IA llega al núcleo de decisión”, sino qué tipo de núcleo queremos construir: uno que responde con prisa a lo que ya ha sucedido o uno que mira hacia adelante y actúa con anticipación. Si elegimos lo segundo, la tecnología será un medio poderoso, pero la diferencia crucial seguirá siendo cómo lideramos este cambio hacia una cultura de prevención más efectiva y consciente.