icon
icon
  • Vidext Visual
Blog

Cómo medir la retención del conocimiento en formación corporativa

Andoni Enríquez
Andoni Enríquez
CPTO
Engagement
Tiempo lectura: 10 minutos

Haz que el contenido trabaje para ti

Reserva una demostración personalizada

De la experiencia
al conocimiento

Cómo medir la retención del conocimiento en la era de la formación generativa

 

La retención del conocimiento en formación corporativa se mide combinando evaluaciones espaciadas, analítica de comportamiento (xAPI) y métricas de engagement de vídeo, no solo tasas de finalización.

Tu equipo completó la formación. El LMS marca todo en verde. Pero tres semanas después, los mismos errores siguen apareciendo en planta.

Esto no es un problema de motivación. Es un problema de medición. El 79% de los empleados no puede recordar información crítica de su formación después de 30 días sin un sistema de refuerzo.¹ Y el coste de esa amnesia colectiva no es menor: se estima en 13,5 millones de dólares anuales por cada 1.000 empleados.²

En España, el sistema FUNDAE registró 5,82 millones de participaciones formativas en 2024 y más de 129 millones de horas de formación.³ Pero esos datos miden volumen, no retención. Sabemos cuántas horas se impartieron. No sabemos cuánto se retuvo.

La llegada de la IA generativa multiplica esta paradoja: ahora producimos contenido formativo más rápido que nunca, pero sin mejores formas de medir si ese contenido se queda en la cabeza de quien lo consume. En este artículo vamos a desmontar las métricas que no funcionan, explicar qué cambia con la formación generativa y proponemos un framework práctico de tres capas para medir retención real.  

Por qué las métricas tradicionales no capturan la retención real

La mayoría de departamentos de formación operan en los dos primeros niveles del modelo Kirkpatrick: reacción (¿le gustó al empleado?) y aprendizaje (¿aprobó el test?). Los niveles tres y cuatro, comportamiento en el puesto y resultados de negocio, requieren seguimiento durante semanas y cruzar datos entre sistemas. Casi nadie lo hace.

El resultado es predecible. **Solo el 12% de los empleados afirma aplicar las habilidades adquiridas en formación a su trabajo diario.**⁴ Y un 49% reconoce que pasa los módulos de compliance simplemente haciendo clic para completarlos.²

SCORM, el estándar que usan la mayoría de LMS, fue diseñado para registrar finalización, puntuación y tiempo. Eso era suficiente en 2004. Hoy, saber que alguien "completó" un módulo nos dice lo mismo que saber que alguien "abrió" un email: técnicamente cierto, operativamente inútil.

En España, el 59,9% de la formación corporativa ya se imparte online.³ Pero la mayoría de empresas sigue midiendo esa formación digital con las mismas métricas que usaban para la presencial: horas, asistencia, satisfacción. Es lo que llamamos Inercia Documental: medir lo fácil (tasas de finalización, horas impartidas) en lugar de lo útil (retención, aplicación, impacto operativo).

Y aquí está el problema real: cuando documentar no significa entender, acumular datos de completado solo genera una falsa sensación de control.  

Qué cambia con la formación generativa

La adopción de IA en formación corporativa ha pasado del 25% al 37% de las organizaciones en un solo año.⁵ Pero la velocidad de adopción no implica madurez en la medición.

La IA generativa permite crear un módulo formativo en horas en lugar de semanas. Eso es una ventaja operativa real. Pero también introduce un riesgo que pocos equipos de L&D están midiendo: más contenido producido no equivale a más conocimiento retenido. Sin métricas de retención, la IA generativa simplemente acelera la producción de material que se olvida al mismo ritmo.

Hay un segundo problema. Los datos de BCG muestran que el 75% de los directivos ya usa herramientas generativas semanalmente, pero entre operarios y técnicos, el uso regular se queda en el 51%.⁶ Esto significa que la formación generada con IA puede estar optimizada para quienes la diseñan, no para quienes la reciben. Y cuando el contenido se personaliza automáticamente, medir comprensión se vuelve más difícil, porque cada persona puede estar consumiendo una versión diferente del mismo material.

La velocidad de creación que permite la IA generativa exige una velocidad equivalente en la medición. Si tu equipo puede producir 10 módulos a la semana pero sigue evaluando la retención con un test al final del trimestre, la brecha entre producción y medición solo se amplía.  

El framework de retención en tres capas

Las métricas de retención no son binarias (retuvo / no retuvo). Son progresivas. Proponemos un modelo de tres capas que cualquier equipo de L&D puede implementar de forma incremental.  

Capa 1: Consumo

Es lo que la mayoría de empresas ya mide: ¿el empleado accedió al contenido?

  • Tasa de finalización
  • Tiempo medio de visualización
  • Play rate (porcentaje de personas que inician el contenido vs. quienes lo tienen asignado)
  • Video heat maps: dónde se abandona, qué segmentos se revisan

Esta capa es necesaria pero insuficiente por sí sola. Saber que alguien vio el vídeo completo no te dice si entendió el procedimiento. Es el equivalente a medir asistencia en una clase presencial: confirma presencia, no aprendizaje.  

Capa 2: Comprensión

Aquí es donde la mayoría de programas formativos se quedan cortos. Medir comprensión requiere evaluar no solo justo después de la formación, sino a intervalos regulares.

  • Evaluaciones espaciadas a 30, 60 y 90 días: la investigación en ciencia cognitiva demuestra que la repetición espaciada mejora la retención a largo plazo hasta un 200% frente al aprendizaje en una sola sesión.⁷
  • xAPI (Experience API): a diferencia de SCORM, xAPI captura interacciones granulares en cualquier entorno (online, móvil, simulaciones) y las almacena en un Learning Record Store externo. Esto permite saber no solo si alguien completó, sino cómo navegó el contenido, qué secciones revisó y dónde tropezó.
  • Cuestionarios integrados en el momento de consumo, no al final. Un quiz de tres preguntas a mitad de un vídeo de 6 minutos captura comprensión en contexto, no memoria a corto plazo 20 minutos después.

La diferencia entre SCORM y xAPI no es solo técnica, es estratégica. SCORM te dice qué pasó dentro del LMS. xAPI te dice qué pasó en cualquier punto de contacto formativo. Y ambos estándares pueden coexistir: no necesitas reemplazar tu contenido SCORM actual para empezar a capturar datos más granulares con xAPI.  

Capa 3: Aplicación

Es el nivel que realmente importa, y el más difícil de medir, porque vive fuera del LMS.

  • Tiempo hasta competencia operativa (time-to-proficiency): ¿cuánto tarda un nuevo operario en ejecutar un procedimiento de forma autónoma después de la formación?
  • Tasa de aplicación on-the-job: requiere feedback estructurado de managers a 30, 60 y 90 días
  • Correlación con KPIs operativos: reducción de incidencias, errores en proceso, tiempos de ciclo, índices de calidad

Los datos de LinkedIn Learning confirman que las empresas con una cultura de aprendizaje fuerte ven un 57% más de retención de empleados y un 23% más de movilidad interna.⁸ La retención del conocimiento y la retención de personas están conectadas.

Esta capa requiere que datos de formación y datos de operaciones convivan en el mismo análisis. Es el cuello de botella real: cada nivel del modelo Kirkpatrick vive en un sistema diferente (encuestas, LMS, check-ins de managers, ERP). Integrar esos datos es el reto, pero también es donde está el valor.  

Tabla resumen del framework

 

CapaQué mideHerramientasIndicador clave
ConsumoAcceso y atenciónLMS, video analytics, heat mapsTasa de finalización + drop-off points
ComprensiónRetención y asimilaciónxAPI, evaluaciones espaciadas, quizzes in-videoScore a 30-60-90 días
AplicaciónTransferencia al puestoFeedback de managers, KPIs operativos, ERPTime-to-proficiency + reducción de errores

   

Métricas específicas para formación en vídeo

El vídeo es el formato donde la analítica de retención ha avanzado más, porque el propio medio genera datos de comportamiento que los documentos estáticos nunca pueden ofrecer.

El tiempo medio de visualización es el mejor predictor de eficacia de un vídeo formativo. Por encima de las tasas de completado, el watch time revela si el contenido mantiene la atención o si la gente lo deja correr en segundo plano.

Otras métricas que conviene vigilar:

  • Rewatch rate: cuando un segmento se rebobina repetidamente, indica una de dos cosas: o el contenido es confuso y necesita reescribirse, o es un punto crítico que los empleados usan como referencia. Distinguir ambos escenarios requiere cruzar rewatch rate con resultados de evaluación en ese bloque.
  • Drop-off points: el minuto exacto donde la atención se pierde. Si el 40% de los espectadores abandona en el minuto 4 de un vídeo de 8, el problema probablemente no está en el empleado sino en el contenido.
  • Completion rate: un benchmark sólido para formación corporativa es superar el 70%. Los vídeos de menos de 10 minutos consistentemente alcanzan tasas más altas.

Lo que hace que estas métricas sean útiles es que son accionables. Un PDF con una tasa de apertura del 30% solo te dice que nadie lo lee, pero no te dice dónde está el problema. Una herramienta de infraestructura de conocimiento en vídeo (como Vidext) con analítica integrada te muestra exactamente en qué minuto, en qué sección y con qué frecuencia cada equipo revisa el contenido. Esa granularidad convierte la medición en una herramienta de mejora continua, no solo de reporte.

Para profundizar en cómo mejorar el engagement en formación interna, las métricas de vídeo son el punto de partida más práctico.  

Cómo implementar la medición sin empezar de cero

No necesitas un proyecto de transformación digital para empezar a medir mejor. La clave es ser incremental y empezar por donde hay más impacto.

Paso 1: Audita qué mides hoy. La mayoría de equipos descubren que están operando exclusivamente en la Capa 1 (consumo). Saber dónde estás es el primer paso para saber qué falta.

Paso 2: Activa xAPI si tu LMS lo soporta. Muchos LMS modernos ya son compatibles con xAPI, pero la funcionalidad está desactivada por defecto. Activarla no requiere reemplazar tu contenido SCORM existente: ambos estándares coexisten. Plataformas de infraestructura de conocimiento como Vidext exportan contenido compatible con SCORM 1.2, SCORM 2004 y xAPI de forma nativa, lo que permite conectar la medición sin migrar sistemas.

Paso 3: Introduce evaluaciones espaciadas en los tres programas más críticos. No intentes cubrir toda tu oferta formativa de golpe. Elige los tres programas con mayor impacto operativo (onboarding, seguridad, compliance) y añade evaluaciones a 30, 60 y 90 días. Solo con eso ya estarás operando en la Capa 2.

Paso 4: Conecta métricas de formación con un KPI de negocio. Elige uno. Puede ser tiempo de onboarding, tasa de errores en proceso, o incidencias de seguridad. El objetivo no es construir un dashboard perfecto, sino demostrar una correlación que justifique invertir más en medición.

Paso 5: Revisa trimestralmente, no anualmente. La revisión anual de la eficacia formativa es un ritual sin impacto. Los ciclos trimestrales permiten ajustar contenido, formato y frecuencia de evaluación antes de que los problemas se acumulen.

Cuando la formación no escala, normalmente el cuello de botella no es la producción de contenido sino la falta de datos para saber qué funciona y qué no. El framework de refactorización visual que proponemos en otro artículo parte exactamente de esta premisa: antes de producir más, mide mejor lo que ya tienes.  

Conclusión: la pregunta ya no es cuánto produces, sino cuánto retienen

La IA generativa ha resuelto el problema de la velocidad de producción. Crear un módulo formativo ya no lleva semanas. Pero esa velocidad solo tiene valor si el conocimiento se queda en la cabeza de quien lo recibe.

El framework de tres capas (consumo, comprensión, aplicación) no requiere tecnología que no exista. xAPI ya está disponible en la mayoría de LMS. Las evaluaciones espaciadas son una práctica con décadas de respaldo científico. Y la analítica de vídeo ofrece una granularidad que ningún formato estático puede igualar.

Lo que sí requiere es una decisión: dejar de medir lo fácil y empezar a medir lo útil. Pasar de "el 95% completó el curso" a "el 68% recuerda el procedimiento a los 60 días y lo aplica con un 15% menos de errores". Esa es la diferencia entre formación que cumple y formación que transforma.

Si tu equipo está produciendo formación con IA y quieres saber si realmente funciona, agenda una demo con Vidext y te mostramos cómo medir retención desde el primer módulo.  

Preguntas frecuentes

 

¿Cuál es la tasa normal de retención en formación corporativa?

Sin sistemas de refuerzo, los empleados retienen aproximadamente el 21-25% del contenido formativo después de 30 días. Con técnicas de repetición espaciada y refuerzo activo, esa cifra puede superar el 60%. La clave no es la formación inicial sino el sistema de refuerzo posterior.  

¿Qué diferencia hay entre SCORM y xAPI para medir formación?

SCORM registra datos básicos dentro del LMS: completado, puntuación y tiempo. xAPI captura interacciones detalladas en cualquier entorno (online, móvil, simulaciones, vídeo) y las almacena en un Learning Record Store externo. SCORM te dice si alguien terminó. xAPI te dice cómo aprendió. Ambos estándares pueden coexistir en la misma infraestructura.  

¿Cada cuánto hay que evaluar la retención del conocimiento?

El estándar basado en ciencia cognitiva es evaluar a 30, 60 y 90 días después de la formación inicial. Para programas críticos (seguridad, compliance, procedimientos técnicos), añadir evaluaciones a los 6 y 12 meses permite detectar degradación a largo plazo.  

¿Cómo saber si la formación en vídeo es más efectiva que otros formatos?

Compara las métricas de la Capa 2 (comprensión) y la Capa 3 (aplicación) entre formatos, no la Capa 1 (consumo). Un vídeo puede tener una tasa de finalización similar a un PDF, pero la retención medida a 60 días y la tasa de aplicación on-the-job suelen ser significativamente superiores en formatos audiovisuales con interactividad.  

¿Qué métricas de vídeo son más relevantes para formación corporativa?

El tiempo medio de visualización es el indicador más fiable de eficacia. Los drop-off points revelan dónde se pierde la atención. El rewatch rate identifica contenido confuso o crítico. Y la tasa de finalización, aunque limitada por sí sola, funciona como benchmark cuando se combina con evaluaciones espaciadas.


 

Fuentes

¹ Corporate Training Retention Study - Human Resource Development Quarterly, 2023 ² Training Industry Report 2025 - Training Magazine ³ Datos FUNDAE 2024 - Innovación y Cualificación ⁴ Workplace Learning Application Rate - 24x7 Learning / HBR ⁵ AI in Corporate Training 2025 - Training Industry ⁶ AI at Work 2025: Momentum Builds but Gaps Remain - BCG ⁷ Spaced Repetition and Long-term Retention - Journal of Educational Psychology, 2023 ⁸ Workplace Learning Report 2024 - LinkedIn Learning

icon
icon
icon
icon
icon

@ 2026 Vidext Inc.

Únete a nuestra newsletter

Descubre todas las noticias y novedades de Vidext

@ 2026 Vidext Inc.

Producto

  • Visual

Recursos

  • Casos de éxito
  • Webinars
  • Changelog

Vidext

  • Únete
    Contratando
  • Sobre nosotros
  • Manifiesto

Legal

  • Política de privacidad
  • Condiciones y términos
  • Datos de procesamiento
  • ISO 27001

Blog

  • Cómo reducir el Time-to-Productivity en un 30% con vídeo e IA en empresas industriales
  • Formación para la campaña de verano: cómo preparar al equipo a tiempo
  • Cuando el conocimiento vive en personas, tu operación es frágil
  • Ver todos los artículos