Tiempo lectura: 10 minutos
Blog
Cómo medir la retención del conocimiento en formación corporativa

Andoni Enríquez
CPTO
Engagement
Cómo medir la retención del conocimiento en formación corporativa

La retención del conocimiento en formación corporativa se mide combinando evaluaciones espaciadas, analítica de comportamiento (xAPI) y métricas de engagement de vídeo, no solo tasas de finalización.
Tu equipo completó la formación. El LMS marca todo en verde. Pero tres semanas después, los mismos errores siguen apareciendo en planta.
Esto no es un problema de motivación. Es un problema de medición. El 79% de los empleados no puede recordar información crítica de su formación después de 30 días sin un sistema de refuerzo.¹ Y el coste de esa amnesia colectiva no es menor: se estima en 13,5 millones de dólares anuales por cada 1.000 empleados.²
En España, el sistema FUNDAE registró 5,82 millones de participaciones formativas en 2024 y más de 129 millones de horas de formación.³ Pero esos datos miden volumen, no retención. Sabemos cuántas horas se impartieron. No sabemos cuánto se retuvo.
La llegada de la IA generativa multiplica esta paradoja: ahora producimos contenido formativo más rápido que nunca, pero sin mejores formas de medir si ese contenido se queda en la cabeza de quien lo consume. En este artículo vamos a desmontar las métricas que no funcionan, explicar qué cambia con la formación generativa y proponemos un framework práctico de tres capas para medir retención real.
La mayoría de departamentos de formación operan en los dos primeros niveles del modelo Kirkpatrick: reacción (¿le gustó al empleado?) y aprendizaje (¿aprobó el test?). Los niveles tres y cuatro, comportamiento en el puesto y resultados de negocio, requieren seguimiento durante semanas y cruzar datos entre sistemas. Casi nadie lo hace.
El resultado es predecible. **Solo el 12% de los empleados afirma aplicar las habilidades adquiridas en formación a su trabajo diario.**⁴ Y un 49% reconoce que pasa los módulos de compliance simplemente haciendo clic para completarlos.²
SCORM, el estándar que usan la mayoría de LMS, fue diseñado para registrar finalización, puntuación y tiempo. Eso era suficiente en 2004. Hoy, saber que alguien "completó" un módulo nos dice lo mismo que saber que alguien "abrió" un email: técnicamente cierto, operativamente inútil.
En España, el 59,9% de la formación corporativa ya se imparte online.³ Pero la mayoría de empresas sigue midiendo esa formación digital con las mismas métricas que usaban para la presencial: horas, asistencia, satisfacción. Es lo que llamamos Inercia Documental: medir lo fácil (tasas de finalización, horas impartidas) en lugar de lo útil (retención, aplicación, impacto operativo).
Y aquí está el problema real: cuando documentar no significa entender, acumular datos de completado solo genera una falsa sensación de control.
La adopción de IA en formación corporativa ha pasado del 25% al 37% de las organizaciones en un solo año.⁵ Pero la velocidad de adopción no implica madurez en la medición.
La IA generativa permite crear un módulo formativo en horas en lugar de semanas. Eso es una ventaja operativa real. Pero también introduce un riesgo que pocos equipos de L&D están midiendo: más contenido producido no equivale a más conocimiento retenido. Sin métricas de retención, la IA generativa simplemente acelera la producción de material que se olvida al mismo ritmo.
Hay un segundo problema. Los datos de BCG muestran que el 75% de los directivos ya usa herramientas generativas semanalmente, pero entre operarios y técnicos, el uso regular se queda en el 51%.⁶ Esto significa que la formación generada con IA puede estar optimizada para quienes la diseñan, no para quienes la reciben. Y cuando el contenido se personaliza automáticamente, medir comprensión se vuelve más difícil, porque cada persona puede estar consumiendo una versión diferente del mismo material.
La velocidad de creación que permite la IA generativa exige una velocidad equivalente en la medición. Si tu equipo puede producir 10 módulos a la semana pero sigue evaluando la retención con un test al final del trimestre, la brecha entre producción y medición solo se amplía.
Las métricas de retención no son binarias (retuvo / no retuvo). Son progresivas. Proponemos un modelo de tres capas que cualquier equipo de L&D puede implementar de forma incremental.
Es lo que la mayoría de empresas ya mide: ¿el empleado accedió al contenido?
Esta capa es necesaria pero insuficiente por sí sola. Saber que alguien vio el vídeo completo no te dice si entendió el procedimiento. Es el equivalente a medir asistencia en una clase presencial: confirma presencia, no aprendizaje.
Aquí es donde la mayoría de programas formativos se quedan cortos. Medir comprensión requiere evaluar no solo justo después de la formación, sino a intervalos regulares.
La diferencia entre SCORM y xAPI no es solo técnica, es estratégica. SCORM te dice qué pasó dentro del LMS. xAPI te dice qué pasó en cualquier punto de contacto formativo. Y ambos estándares pueden coexistir: no necesitas reemplazar tu contenido SCORM actual para empezar a capturar datos más granulares con xAPI.
Es el nivel que realmente importa, y el más difícil de medir, porque vive fuera del LMS.
Los datos de LinkedIn Learning confirman que las empresas con una cultura de aprendizaje fuerte ven un 57% más de retención de empleados y un 23% más de movilidad interna.⁸ La retención del conocimiento y la retención de personas están conectadas.
Esta capa requiere que datos de formación y datos de operaciones convivan en el mismo análisis. Es el cuello de botella real: cada nivel del modelo Kirkpatrick vive en un sistema diferente (encuestas, LMS, check-ins de managers, ERP). Integrar esos datos es el reto, pero también es donde está el valor.
| Capa | Qué mide | Herramientas | Indicador clave |
|---|---|---|---|
| Consumo | Acceso y atención | LMS, video analytics, heat maps | Tasa de finalización + drop-off points |
| Comprensión | Retención y asimilación | xAPI, evaluaciones espaciadas, quizzes in-video | Score a 30-60-90 días |
| Aplicación | Transferencia al puesto | Feedback de managers, KPIs operativos, ERP | Time-to-proficiency + reducción de errores |
El vídeo es el formato donde la analítica de retención ha avanzado más, porque el propio medio genera datos de comportamiento que los documentos estáticos nunca pueden ofrecer.
El tiempo medio de visualización es el mejor predictor de eficacia de un vídeo formativo. Por encima de las tasas de completado, el watch time revela si el contenido mantiene la atención o si la gente lo deja correr en segundo plano.
Otras métricas que conviene vigilar:
Lo que hace que estas métricas sean útiles es que son accionables. Un PDF con una tasa de apertura del 30% solo te dice que nadie lo lee, pero no te dice dónde está el problema. Una herramienta de infraestructura de conocimiento en vídeo (como Vidext) con analítica integrada te muestra exactamente en qué minuto, en qué sección y con qué frecuencia cada equipo revisa el contenido. Esa granularidad convierte la medición en una herramienta de mejora continua, no solo de reporte.
Para profundizar en cómo mejorar el engagement en formación interna, las métricas de vídeo son el punto de partida más práctico.
No necesitas un proyecto de transformación digital para empezar a medir mejor. La clave es ser incremental y empezar por donde hay más impacto.
Paso 1: Audita qué mides hoy. La mayoría de equipos descubren que están operando exclusivamente en la Capa 1 (consumo). Saber dónde estás es el primer paso para saber qué falta.
Paso 2: Activa xAPI si tu LMS lo soporta. Muchos LMS modernos ya son compatibles con xAPI, pero la funcionalidad está desactivada por defecto. Activarla no requiere reemplazar tu contenido SCORM existente: ambos estándares coexisten. Plataformas de infraestructura de conocimiento como Vidext exportan contenido compatible con SCORM 1.2, SCORM 2004 y xAPI de forma nativa, lo que permite conectar la medición sin migrar sistemas.
Paso 3: Introduce evaluaciones espaciadas en los tres programas más críticos. No intentes cubrir toda tu oferta formativa de golpe. Elige los tres programas con mayor impacto operativo (onboarding, seguridad, compliance) y añade evaluaciones a 30, 60 y 90 días. Solo con eso ya estarás operando en la Capa 2.
Paso 4: Conecta métricas de formación con un KPI de negocio. Elige uno. Puede ser tiempo de onboarding, tasa de errores en proceso, o incidencias de seguridad. El objetivo no es construir un dashboard perfecto, sino demostrar una correlación que justifique invertir más en medición.
Paso 5: Revisa trimestralmente, no anualmente. La revisión anual de la eficacia formativa es un ritual sin impacto. Los ciclos trimestrales permiten ajustar contenido, formato y frecuencia de evaluación antes de que los problemas se acumulen.
Cuando la formación no escala, normalmente el cuello de botella no es la producción de contenido sino la falta de datos para saber qué funciona y qué no. El framework de refactorización visual que proponemos en otro artículo parte exactamente de esta premisa: antes de producir más, mide mejor lo que ya tienes.
La IA generativa ha resuelto el problema de la velocidad de producción. Crear un módulo formativo ya no lleva semanas. Pero esa velocidad solo tiene valor si el conocimiento se queda en la cabeza de quien lo recibe.
El framework de tres capas (consumo, comprensión, aplicación) no requiere tecnología que no exista. xAPI ya está disponible en la mayoría de LMS. Las evaluaciones espaciadas son una práctica con décadas de respaldo científico. Y la analítica de vídeo ofrece una granularidad que ningún formato estático puede igualar.
Lo que sí requiere es una decisión: dejar de medir lo fácil y empezar a medir lo útil. Pasar de "el 95% completó el curso" a "el 68% recuerda el procedimiento a los 60 días y lo aplica con un 15% menos de errores". Esa es la diferencia entre formación que cumple y formación que transforma.
Si tu equipo está produciendo formación con IA y quieres saber si realmente funciona, agenda una demo con Vidext y te mostramos cómo medir retención desde el primer módulo.
Sin sistemas de refuerzo, los empleados retienen aproximadamente el 21-25% del contenido formativo después de 30 días. Con técnicas de repetición espaciada y refuerzo activo, esa cifra puede superar el 60%. La clave no es la formación inicial sino el sistema de refuerzo posterior.
SCORM registra datos básicos dentro del LMS: completado, puntuación y tiempo. xAPI captura interacciones detalladas en cualquier entorno (online, móvil, simulaciones, vídeo) y las almacena en un Learning Record Store externo. SCORM te dice si alguien terminó. xAPI te dice cómo aprendió. Ambos estándares pueden coexistir en la misma infraestructura.
El estándar basado en ciencia cognitiva es evaluar a 30, 60 y 90 días después de la formación inicial. Para programas críticos (seguridad, compliance, procedimientos técnicos), añadir evaluaciones a los 6 y 12 meses permite detectar degradación a largo plazo.
Compara las métricas de la Capa 2 (comprensión) y la Capa 3 (aplicación) entre formatos, no la Capa 1 (consumo). Un vídeo puede tener una tasa de finalización similar a un PDF, pero la retención medida a 60 días y la tasa de aplicación on-the-job suelen ser significativamente superiores en formatos audiovisuales con interactividad.
El tiempo medio de visualización es el indicador más fiable de eficacia. Los drop-off points revelan dónde se pierde la atención. El rewatch rate identifica contenido confuso o crítico. Y la tasa de finalización, aunque limitada por sí sola, funciona como benchmark cuando se combina con evaluaciones espaciadas.
¹ Corporate Training Retention Study - Human Resource Development Quarterly, 2023 ² Training Industry Report 2025 - Training Magazine ³ Datos FUNDAE 2024 - Innovación y Cualificación ⁴ Workplace Learning Application Rate - 24x7 Learning / HBR ⁵ AI in Corporate Training 2025 - Training Industry ⁶ AI at Work 2025: Momentum Builds but Gaps Remain - BCG ⁷ Spaced Repetition and Long-term Retention - Journal of Educational Psychology, 2023 ⁸ Workplace Learning Report 2024 - LinkedIn Learning
@ 2026 Vidext Inc.
Únete a nuestra newsletter
Descubre todas las noticias y novedades de Vidext
@ 2026 Vidext Inc.