19
Metodología para evaluar programas de formación de
competencias en el contexto organizacional
Methodology to evaluate competencies training programs in the
organizational context
DOI: https://doi.org/10.5281/zenodo.5852587
Arianne Medina Macías
1
0000-0002-6473-1190
Anabel Valdés Gonzáles
2
0000-0002-3048-2309
Facultad de Psicología, Universidad de la Habana, La Habana, Cuba.
1
arianne@psico.uh.cu
Departamento de Programación, Radio Jaruco, Mayabeque, Cuba.
2
avg930421@gmail.com
Recepción: 05 de octubre de 2021 / Aceptación: 05 de diciembre de 2021 / Publicación: 15 de enero de 2022
Citación/cómo citar este artículo:
Medina, A. y Valdés, A. (2022). Metodología para evaluar programas de formación de
competencias en el contexto organizacional. PSIDIAL: Psicología y Diálogo de Saberes, 1(1)
19-38. DOI: https://doi.org/10.5281/zenodo.5852587
20
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - Junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
Resumen
Uno de los retos que se plantean a las empresas contemporáneas es la evaluación de los
programas de formación, capacitación y entrenamiento a partir de metodologías eficaces. La
presente investigación sigue un enfoque multidisciplinar, al integrar los campos de la
Psicología Educativa y la Psicología Organizacional, en el propósito de evaluar un programa
de formación de competencias en el contexto empresarial. Se utilizó una metodología mixta,
con un diseño secuencial. En un primer momento se diseñó la estrategia de evaluación del
programa y se validó a través de una muestra de expertos. Seguidamente, se implementó como
una de las etapas del programa de formación de competencias para la gestión eficaz de la
seguridad y salud en el trabajo (SST). La estrategia de evaluación diseñada mostró su validez
para recopilar, triangular y evaluar los resultados del programa, así como perfeccionarlo a
partir de múltiples dimensiones, indicadores y fuentes y en diferentes momentos. Se validó
satisfactoriamente por expertos nacionales e internacionales.
Palabras clave: Evaluación de la formación; formación de competencias, investigación
evaluativa
Abstract
One of the challenges facing contemporary enterprise is the evaluation of education, training
and training programs based on effective methodologies. This research follows a
multidisciplinary approach, since it relates the fields of Educational Psychology and
Organizational Psychology, in order to evaluate a competencies training program in the
enterprise context. The mixed methodology was used, with a sequential design. Initially, the
evaluation strategy was designed through documentary analysis and validated through a sample
of experts. Subsequently, it was implemented as one of the stages of the competencies training
program for the effective management of occupational safety and health (OSH). The designed
evaluation strategy showed its validity to collect, triangulate and evaluate the results of the
program, as well as refine it from multiple dimensions and indicators, sources and in different
periods. It was successfully validated by national and international experts.
Keywords: competences training, evaluating research, training evaluation
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
21
Introducción
La empresa cubana se ha caracterizado en los últimos años por un acelerado ritmo de cambio
basado en el desarrollo científico - técnico y las transformaciones sociales, políticas y
económicas, con el propósito de perfeccionar el modelo empresarial cubano. Estos cambios han
generado nuevas demandas por parte de las organizaciones hacia los profesionales de la
Psicología en términos de capacitación y educación, ya que se concibe al capital humano y su
formación profesional como pieza clave para lograr resultados exitosos (Alles, 2002; Cuesta,
2012; Medina, 2017).
En Cuba, se ha legitimado esta idea a través de la socialización, en el 2007, de las Normas
Cubanas para el Sistema de Gestión Integrada de Capital Humano (Oficina Nacional de
Normalizacn, NC 3000/3001/3002:2007), donde se incluye a las competencias laborales como
eje central de este sistema. Se resalta la necesidad de formar competencias en el trabajador y la
organización a través de programas de formación que potencien su desarrollo y garanticen la
competitividad y adaptación al entorno cambiante de las organizaciones.
El aporte fundamental de la investigación realizada es la presentación de una alternativa
metodológica para llevar a cabo un proceso de evaluacn de programas de formación de
competencias, incluyendo los elementos de su diseño y validacn por expertos. Esto constituye
una necesidad imperante en las organizaciones, ya que se tiende a invertir en acciones de
capacitación al trabajador, sin valorar más al del resultado alcanzado como parte de la
evaluación del curso formativo. No se comprende la necesidad de evaluar la pertinencia de la
formación, las nuevas necesidades de aprendizaje que surgen, la transferencia de estas
competencias en cambios a nivel conductual, del puesto de trabajo y de la organización. Esto
permitiría garantizar que la formacn se ajuste a las demandas de la institución y del individuo
que la recibe, con eficiencia y eficacia.
Es importante resaltar que esta propuesta de estrategia de evaluación se deriva del proyecto de
doctorado de Medina (2017), cuyo objetivo fundamental fue diseñar, implementar y evaluar un
programa de formación de competencias para la gestión eficaz de la SST, a la medida de las
necesidades de una empresa de la biotecnología cubana. Este programa se disó acorde a las
competencias organizacionales claves para gestionar la SST identificadas (Medina, 2019), el
diagnóstico del sistema de gestión de SST de la empresa (Peña, 2016), así como el levantamiento
de factores y riesgos psicosociales realizado (Rodríguez, 2016). El proyecto estuvo integrado
por diferentes fases, las cuales, por su complejidad, constituyeron trabajos de diploma y tesis de
maestría. En este artículo se presenta la estrategia de evaluacn diseñada y validada para la
evaluación del programa de formacn. Debido a la magnitud de los resultados del programa, los
cuales ameritan publicarse de manera independiente, no se hará referencia a los mismos. Sin
embargo, pueden consultarse en Valdés (2017) y en Medina (2017).
Como referentes tricos y metodológicos fundamentales para el desarrollo de esta propuesta se
consulta a: Almeyda (2017); Avolio de Cols y Lacolutti (2006); Goldstein (1993); Organización
Internacional del Trabajo (OIT)/Cinterfor (2011), Tejada (2004); Tejada y Ferndez (2007) y
Valdés (2016). Estos aportan algunas pautas para la evaluación de programas de formación que
se valoran en la presente investigacn.
22
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
Evaluación de programas de formación. Principales referentes teóricos.
En la realidad actual de las empresas el ser humano constituye el recurso distintivo y estratégico
que puede generar una ventaja competitiva. Por ende, la formación por competencias constituye
una vía esencial para desarrollar el capital humano, potenciar el desarrollo integral de los
trabajadores y su preparacn para el desempeño exitoso de su actividad laboral. Esta ha de
concebirse no solo como una acción puntual según las demandas externas y las características
del producto o del puesto, sino también como una estrategia permanente que contribuya al
aprendizaje individual y organizacional (Alles, 2002; Cuesta, 2012; Gairín, 2010; Rabadán,
Hernández y Rabal, 2014; Vargas, 1998). Todo ello ha condicionado concebir la capacitación
como una inversión y no como un costo, lo cual puede ser demostrado a través de la evaluacn
de sus resultados e impacto.
Esta nueva concepción de la formación implica también nuevas metodologías para llevarla a
cabo, acordes a las exigencias que supone para el formador y los participantes. Los programas
constituyen una herramienta válida para la formación de competencias, sustentados en principios
como la planificacn de las acciones, el trabajo grupal e individual, la pertinencia y amplitud de
los contenidos, la diversidad de métodos y técnicas, la posibilidad de transferir lo aprendido y
las diferentes fuentes de evaluacn. El diseño de programas de formacn implica diferentes
fases para su realizacn exitosa, incluyendo la evaluación, clave para la toma de decisiones con
respecto a la viabilidad del programa, su pertinencia y los posibles cambios para perfeccionarlo.
Una limitacn de los procesos de formacn en las organizaciones es que reducen la evaluación
a la exploración de los resultados concretos obtenidos y a parámetros cuantitativos como la
cantidad de personas capacitadas, cantidad de objetivos cumplidos, cantidad de materiales
utilizados y costo monetario de la formación. Debido a ello, se pierde informacn referente al
proceso de aprendizaje, a la efectividad de su diseño, la posibilidad de perfeccionarlo en la
práctica, la opinión de los participantes, su progreso y el valor que le otorgan al curso, la
transferencia de lo aprendido a su trabajo, entre otros aspectos cualitativos que permiten la toma
de decisiones y la mejora continua del sistema de formacn.
Resulta necesario una evaluación sistemática e integradora de las acciones formativas para
conocer los resultados obtenidos y acompañar a la enseñanza-aprendizaje durante todo el
proceso, desde la evaluación de necesidades de aprendizaje hasta el impacto de la formación en
la organización.
Cuando analizamos las diversas definiciones de evaluacn que ofrecen autores como Tejada
(2004), Cabrera (2005) y Gairín (2010) se pueden resumir tres supuestos fundamentales para
entender la evaluación de programas, los cuales constituyen la esencia de la postura asumida por
las autoras.
El carácter procesual de la evaluacn es indiscutible, ya que la evaluación y la planificación de
la formacn esn intnsecamente vinculadas, incluso cuando el programa aún es sólo una idea
del investigador. Implica que los procesos de recogida y análisis de informacn sean
sisteticos y culminen en su triangulación e integración. De a que sea esencial la evaluacn
inicial de necesidades y del contexto, que permite a su vez, el seguimiento del avance durante la
implementación y después de terminado el programa, en una constante retroalimentación.
Este proceso se define como científico y organizado, o sea, responde a una metodología
particular ajustada a las características del contexto en que se desarrolle el programa y sus
objetivos. Igualmente, dentro de esta organización se hace énfasis en la contribución activa de
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
23
los participantes dentro del proceso de evaluación y la cooperacn de estos en las diferentes
etapas de la construcción e implementacn del programa. Como parte del método científico, la
utilizacn de expertos dentro de la evaluacn es indispensable para avalar la validez y
pertinencia de las acciones planificadas.
Se considera que la finalidad de la evaluación es la toma de decisiones. Con ello, se defiende
que este proceso no lo permite la exposición de datos o informaciones, sino además, actuar en
consecuencia para optimizar los resultados en el futuro, a partir de las valoraciones del impacto
y viabilidad del programa.
Relacionado con este tercer elemento, es necesario hacer referencia a las funciones de la
evaluación de programas de formación que determina su carácter instrumental.
Tradicionalmente, la evaluación ha sido considerada como una simple herramienta de rendición
de cuentas a las partes interesadas de los resultados obtenidos y sobre todo de la relación costo-
beneficio en términos cuantitativos.
Para superar esta visión tradicional se propone a continuación una serie de principios de la
evaluación, a partir del análisis de las reflexiones realizadas por los autores consultados (Cabrera,
2005; Fernández-Ballesteros, 1998; Jornet, Suarez y Pérez, 2000; Pérez, 2016; Tejada, 2004) y
los criterios de las autoras de la investigación.
- Realizar acciones formativas ajustadas a las verdaderas necesidades de aprendizaje y las
condiciones para llevarlas a cabo.
- Perfeccionar la formación durante su implementación, sen las retroalimentaciones del
grupo, los participantes y la coordinación.
- Potenciar la autoevaluación de los participantes y la autorregulacn de su propio proceso
de aprendizaje.
- Comprobar el logro de los objetivos del programa por parte de los participantes.
- Identificar obstáculos y facilitadores para transferir lo aprendido al puesto de trabajo y
a la organización.
- Determinar nuevas necesidades de formacn, una vez finalizado el programa.
- Identificar cambios organizaciones e individuales a raíz de la experiencia formativa.
- Justificar los recursos humanos y materiales invertidos en la formación.
- Tomar decisiones con respecto al programa (su validez, viabilidad y pertinencia) y sus
componentes (cnicas, contenidos, metodologías, etc.).
- La consideración de estos factores diversos en cuanto a contenidos a evaluar, fuentes de
retroalimentación y periodos, dota al proceso de evaluación de una complejidad
metodológica para su diseño y ejecución.
Aspectos teóricos y metodológicos para el diseño de estrategias de evaluación de programas
de formación.
El diseño de estrategias de evaluación de programas de formación constituye un reto para los
profesionales de la Psicoloa y otras ciencias afines, debido a la propia complejidad del proceso
de evaluación y a la falta de integración de un modelo que planteetodos estandarizados para
realizar la evaluación de programas. Existen una multitud de propuestas metodológicas que
presentan contradicciones entre con respecto a las bases teóricas, la prevalencia del enfoque
cuantitativo o cualitativo, los momentos de implementación del programa en los que se debe
evaluar o no, el equilibrio entre rigor imprescindible y la flexibilidad adaptativa, la naturaleza de
la información que deben brindar a las autoridades competentes, la decisión que se desea avalar
con respecto al programa y las técnicas a utilizar.
24
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
Con el objetivo de identificar elementos invariantes para construir una estrategia de evaluación
se consultaron las siguientes fuentes bibliográficas: Abdala (2004); Avolio de Cols y Lacolutti
(2006); Buena y Berrocal (2008); Buendía, Expósito y Sánchez (2012); Cabrera (2005);
Chacón, Anguera y López (2000); De Miguel, Pereira, Pascual y Carrio (2008); Gairín (2010);
Gertler, Marnez, Premand, Rawlings, Christel y Vermeersch (2011); Goldstein (1993);
Marcano, Aular de Durán y Finol de Franco (2009); OIT/Cinterfor (2011); Rabadán, Hernández
y Rabal (2014); Sirhan y Triviño (2012); Tejada y Ferndez (2007); Tejada, Ferrández, Jurado,
Mas, Navío, y Ruiz (2008); Tejada (2004) y Torres, Perera y Cobos (2014).
Cada uno de estos referentes de la investigación evaluativa plantea una serie de elementos que
deben ser evaluados durante tres momentos esenciales: antes, durante y después de
implementado el programa. A continuación, se presentarán brevemente los mismos, integrando
elementos de las propuestas de los diferentes autores mencionados y los criterios de las autoras
del artículo.
Evaluación antes de implementar el programa. La evaluación de las acciones formativas
comienza incluso antes de que estas sean diseñadas, siendo la evaluación inicial o diagnóstica
una etapa fundamental. Permitirá el diseño de un programa ajustado a las condiciones reales
para su implementación y pertinente para responder a las demandas de la organización y los
individuos que serán sujetos de la formación. Esta fase, según los autores consultados puede
incluir los siguientes elementos:
Evaluacn del contexto (organización y destinatarios): integra tanto las necesidades
(individuales u organizacionales, sentidas o percibidas, reales o potenciales, etc.) a las que ha de
responder el programa, como la caracterizacn del propio contexto condicionante en la
implementación del mismo. Tambn incluye la selección de los destinatarios, buscando un
equilibrio entre las caractesticas, necesidades y saberes de estas personas y el diseño de las
cnicas y métodos que luego se realizarán. Esta fase permite determinar la viabilidad del
programa, su pertinencia y la disponibilidad o no de recursos para su desarrollo.
Evaluacn del propio diseño del programa: se valora su pertinencia en función de los aspectos
anteriores. Es decir, examinar si los elementos que integran el programa están en consonancia
con las necesidades que debe satisfacer, a la par que se ha de verificar la coherencia interna entre
dichos elementos (objetivos, contenidos, estrategias, actividades, recursos, sistema de
evaluación, formadores, etc.). Asimismo, debe corroborarse que los aspectos mencionados se
correspondan con las características de los destinatarios.
Entre los diversos métodos e instrumentos que propone para llevar a cabo ambos momentos
encontramos el análisis de contenido de documentos o registros oficiales sobre el tema a abordar,
cuestionarios, escalas y entrevistas, tanto para evaluar el contexto como para caracterizar los
destinatarios. Igualmente, propone el análisis de expertos internos y externos (con referencia al
centro receptor) como método fundamental para las valoraciones sobre el diseño del programa.
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
25
Evaluación de resultados durante la implementación del programa. La importancia de esta fase
radica en conocer con detalle las causas de los resultados obtenidos al final del programa para
su necesaria acomodación, descarte o mantenimiento. Permite una constante retroalimentación
en la práctica, posibilitando al profesional encauzar o corregir posibles errores del diseño del
programa, en tiempo real. Se compone de los siguientes elementos:
Evaluacn de la implementacn del diseño: se deben analizar los componentes del diseño del
programa, durante su implementación en una situacn real. Podrán observarse el
funcionamiento de las técnicas y métodos en el contexto grupal e individual, la viabilidad y
pertinencia de las acciones planificadas y su organización temporal y la preparación de los
formadores. También constituye un momento de retroalimentación sobre la propia estrategia de
evaluación, ya que como elemento del propio diseño puede evaluarse su sistematicidad, el acceso
a la información para cumplir sus objetivos y la utilizacn de diferentes fuentes. Esta actividad
se acomete por parte del equipo que implementa el programa, incluyendo a un evaluador externo,
con el objetivo de la revisión permanente de su intervención para ajustarla al diseño y a los
condicionantes propios del contexto específico donde el mismo se lleva a cabo.
Evaluacn de la dinámica grupal: en este caso se valorará la existencia de indicadores de
dinámica, siempre que el programa se realice en formato grupal, como es el caso de la presente
investigacn. Podn analizarse las relaciones entre los participantes y el coordinador, su
asistencia, posibles conflictos, así como la implicacn, la calidad de la participacn y la
motivación de los mismos.
Evaluacn de los resultados parciales: es importante realizar cortes parciales en cada una de las
sesiones para conocer el cumplimiento de los objetivos por parte de los participantes, como vía
para recolectar información sobre conocimientos de difícil comprensión, temas más asequibles,
nuevas necesidades de formación y toda la información que le permita al evaluador constatar y
explicar los resultados finales del programa.
Las cnicas y métodos para evaluar estos tres aspectos pueden ser: alisis de dinámica y de
contenido, cuestionarios, escalas, entrevistas, observación, pruebas de rendimiento, etc.
Evaluación de los resultados luego de concluido el programa. Es una de las etapas más
importantes del proceso de evaluación de programas, puesto que su propósito general es
valorar, interpretar y juzgar los logros de un programa, lo cual es clave en la toma de decisiones
sobre el mismo. Este tipo de evaluación tiene por objetivo el proporcionar evidencias objetivas,
sistemáticas y completas del grado en que el programa ha conseguido los fines que se proponía.
Asimismo, pueden aportarse datos sobre otras consecuencias no previstas que, una vez
conocidas, son también de interés para los responsables del programa. Se centra en la
evaluación de lo alcanzado por los participantes una vez concluido el programa y en cómo
estos aprendizajes son aplicados a la vida laboral, para tener constancia del impacto alcanzado.
Para la toma de decisiones sobre el mantenimiento, cambio o disolución del programa en
cuestión, se hace necesaria esta información, así como un balance de los recursos humanos y
materiales indispensables para su adecuada realización. Constituye la fase de mayor peso en la
evaluación, y sobre la cual existen mayor número de modelos metodológicos y experiencias
prácticas.
Existen tres aspectos fundamentales a evaluar:
26
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
- Evaluacn de los logros o aprendizajes de los participantes: No cabe duda de que esta
evaluación final esen estrecha relación con la situación de entrada de los destinatarios
al programa. Muchos autores coinciden en la necesidad de comenzar esta fase con el
establecimiento de una línea base de desarrollo de la competencia que se desee formar,
para luego constatar cambios al final del programa en relación a sus objetivos.
El aprendizaje adquirido en la formación es en mismo objetivo y propósito de la
formación. Por tanto, cobra una relevancia para la gestión interna, la toma de decisiones
y la validación de la formacn (Parra y Ruiz, 2021).
- Evaluacn del impacto: este alisis nos remite a la actuación personal, profesional o
institucional de los participantes en el contexto organizacional, fuera ya del programa
desarrollado. De a que sea necesario verificar si se han satisfecho las necesidades
articuladoras del programa, si se produce transferencia de lo aprendido, cambios
significativos en la actuación personal o profesional de los destinatarios del programa y
no destinatarios del mismo. Asimismo, se relaciona con la satisfacción de los
participantes con el programa y el conocimiento adquirido. Según los autores
consultados debe realizarse una evaluacn a corto plazo (inmediatamente después de la
accn formadora), a mediano plazo (entre tres y seis meses desps) y a largo plazo (1
o después). El diseño de lostodos para evaluar el impacto dependerá del objeto de
formación y puede incluir encuestas, entrevistas grupales, simulaciones, observación en
el puesto de trabajo y análisis documental de descriptores de puestos, evaluaciones de
desempeño y de las poticas y cambios adoptados por la organizacn.
En el caso de la formación de competencias, la evaluación del impacto de su formacn
requiere de mayores exigencias al evaluador, ya que se necesita corroborar la
manifestacn de las mismas en el contexto real de desempeño de los participantes.
No obstante, el impacto de un programa no solo depende de los recursos o competencias
adquiridos por los participantes, sino también de obstáculos y/o facilitadores del contexto
organizacional que, en definitiva, afectan de forma positiva o negativa la transferencia
del aprendizaje y los resultados del mismo. Tejada y Ferrández (2007) dan cuenta de
obsculos organizacionales, como: la falta de medios para poner en práctica lo
aprendido, la exigencia del trabajo diario que obliga a repetir los viejos hábitos, la
incomprensión del propósito de la formacn por parte del trabajador, la presencia de
directivos reacios a asumir planteamientos de los trabajadores, entre otros.
- Evaluación de los recursos necesarios para su implementación: tiene su importancia por
cuanto en muchas ocasiones el mantenimiento o descarte de un programa de formación,
con independencia de los dos objetos anteriormente expuestos, tiene que ver con los
beneficios y la efectividad que produce el mismo, siendo el costo el objeto de evaluación
capital. Se evaluarán los recursos humanos y materiales que fueron indispensables para
el logro exitoso de la experiencia, de manera que pueda ser replicable de forma rentable
para la organización, los formadores y los destinatarios.
Para realizar este proceso de evaluacn se recomienda el entrenamiento del equipo de
coordinación, dentro del cual se contemple el rol de evaluador externo, que observe las
actividades relacionadas con el programa y su implementación, realice los análisis
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
27
pertinentes y retroalimente a la coordinación sobre el progreso o no del grupo y su propio
desempeño.
Todos los elementos mencionados anteriormente adquieren significado y una mayor
estructuración cuando se disan en paralelo al diseño del programa, por lo que no se pretende
mostrar una propuesta de evaluacn acabada y rígida. La selección de los elementos a evaluar
dependerá de los objetivos del programa y de la evaluación, del contexto, los participantes y
recursos disponibles. Otros aspectos importantes para elaborar la estrategia de evaluación son
los contenidos del programa y la modalidad de intervención que se seleccione para desarrollar
el proceso de enseñanza- aprendizaje (individual o grupal).
Metodología
Se utiliza un enfoque mixto de investigacn con un diseño exploratorio secuencial (Herndez-
Sampieri y Mendoza, 2018). Esta perspectiva permite la integración de los enfoques cuantitativo
y cualitativo para indagar en un problema complejo, resaltando de cada uno sus principales
bondades. La investigación sigue una lógica secuencial. Cada fase de estudio se deriva del
análisis de la anterior: a partir de la revisión bibliográfica se elabora el diseño de la estrategia de
evaluación del programa, luego esta se somete a validación por criterio de expertos y por último
se prueba durante y después de la implementación. En el diseño de aplicaron las siguientes
cnicas e instrumentos:
- Análisis documental: La utilizacn de esta técnica ofrece la posibilidad de obtener
información acerca de estrategias de evaluacn de programas y sus invariantes. También
se utiliza en el análisis de las relatorías, grabaciones y cnicas de las sesiones del
programa para valorar la efectividad de la estrategia de evaluación.
- Encuesta: Se diseñó un cuestionario para expertos con el objetivo de validar el diseño
del programa y dentro de este la estrategia de evaluacn, a tras del método Delphi. La
pregunta dos presenta cuatro ítems para evaluar la estrategia del programa (fuentes,
dimensiones e indicadores, correspondencia métodos e indicadores y evaluación-
objetivo). La pregunta tres recoge recomendaciones para su perfeccionamiento. En la
pregunta 2 se utiliza una escala tipo Likert, cuyos valores oscilan entre 1 (criterio s
favorable) y 5 (criterio más desfavorable). La pregunta tres, es abierta.
- todo Delphi: Consiste en un proceso sistemático e iterativo encaminado a la obtención
de las opiniones, y si es posible de un consenso, de un grupo de expertos. La respuesta
estadística de grupo se considera aceptable cuando se alcanza un Coeficiente de
concordancia (Cc) mayor o igual a 60%. Para el análisis estadístico de las respuestas se
utilizan los estadígrafos: media y desviacn típica (carácter favorable o desfavorable de
las respuestas), frecuencia acumulada (carácter favorable o desfavorable de las
respuestas) y W de Kendal (consenso). Es el método más utilizado en las empresas
cubanas para la validación por criterio de expertos. (Medina & Vitier, 2016)
Se utilizaron dos muestras en la investigación: de expertos y de participantes en el programa.
- Muestra de expertos (intencional): Se utili para la validacn de la estrategia de
evaluación del programa. Quedó conformada por 13 especialistas en temáticas afines a
la Psicología Organizacional, particularmente en gestn de competencias laborales y en
28
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
la seguridad y salud laboral, tanto del ámbito académico como profesional. A su vez, se
conside para la conformación de la muestra la combinación de especialistas del
contexto nacional (10) e internacional (3) y su grado científico (9 doctores, 3 ster y
una licenciada).
- Muestra de participantes en el programa (voluntarios): Se seleccionó al comité de
seguridad y salud en el trabajo de una empresa de la industria biotecnológica como
receptor del programa de formación. Quedó constituido el grupo por 11 activistas que
asistieron regularmente a las ocho sesiones del programa, de forma voluntaria.
Resultados y Discusión
Propuesta metodológica para la evaluación de programas de formación de competencias.
A continuacn, se definen los elementos que son esenciales (invariantes) en el diseño de la
evaluación de un programa de formacn y que constituyen la propuesta metodológica de la
presente investigación:
Objetivos del proceso de evaluación.
En el caso de la presente estrategia, se considera importante que los objetivos estén enfocados,
no solo al resultado o producto, como es tendencia en algunas de las investigaciones consultadas,
sino también al proceso por el que trascurren los participantes en la formación de competencias.
El objetivo fundamental de la estrategia diseñada es la evaluación de los resultados del programa,
a través de los siguientes objetivos específicos: Evaluar el programa durante el proceso de su
implementación (incluyendo invariantes de su diseño, dinámica grupal y resultados parciales),
Evaluar el programa luego de concluido el mismo (incluyendo aprendizajes, impactos y costos)
y Realizar recomendaciones para el perfeccionamiento del programa y la propia estrategia de
evaluación.
Fuentes de evaluación
De acuerdo a las investigaciones consultadas existen varias fuentes de informacn que pueden
ser consultadas a lo largo del proceso de evaluación. La pertinencia de la utilización de unas u
otras dependerá de los objetivos del estudio, y del alcance de la evaluación. La propuesta
metodológica que se realiza contempla triangulación de los resultados de diversas fuentes: los
expertos (nacionales e internacionales) que validan la estrategia de evaluación; el equipo de
coordinación y evaluador externo (evaluación de los resultados del programa a través del análisis
de contenido y dinámica, interpretación de los instrumentos y realizacn de observaciones); los
participantes (autovaloración del proceso de aprendizaje y formación de competencias,
percepcn de su rol relacionado con el puesto para el cual se forman y retroalimentación a la
coordinación sobre el programa) e informantes claves de la organizacn (percepción de cambios
en la organización como resultado del programa).
Metodología para la evaluación.
Por la complejidad del proceso de evaluación de la presente investigación, reflejada en los
objetivos anteriormente planteados y las dimensiones e indicadores que serán explicadas a
continuación, se decid optar por una metodología mixta. Esta propiciará la obtención de datos
de diferente naturaleza, cuya triangulación permitirá evaluar el cumplimiento del objetivo del
programa: la formación de las competencias en los participantes del programa. Este objetivo
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
29
también demanda de una visión integradora de las diferentes fuentes de información, por los
retos que plantea la evaluación de competencias para el investigador.
Dimensiones, indicadores, métodos e instrumentos de evaluación.
Las dimensiones, indicadores, métodos e instrumentos de evaluación se diseñaron tomando
como referencia la documentacn consultada, ajustándolas a las particularidades del programa
de formación de competencias, sus destinatarios y la organización receptora. Esto constituye una
pauta de ajuste indispensable si se desea utilizar esta metodología. Los métodos e instrumentos
fueron seleccionados y construidos según la información que fuera necesaria para evaluar cada
indicador, en correspondencia con la modalidad de intervencn y los recursos técnicos
disados en las sesiones grupales del programa y las características de los participantes. Las
especificidades de cada uno pueden consultarse en Vals (2017) y Medina (2017). Las
dimensiones, subdimensiones, indicadores, métodos e instrumentos se reflejan en las tablas 1 y
2 a continuación:
Tabla 1.
Metodología para la evaluación de los resultados del proceso de implementación.
Dimensiones
Subdimensiones/Indicadores
Métodos e
Instrumentos de
evaluacn.
Evaluacn
de las
invariantes
del diseño
del
programa
Análisis del contenido del programa:
- Actualidad
- Pertinencia de los contenidos en función del
diagnóstico inicial.
- Utilidad para los participantes en su rol.
Análisis de los recursos técnicos del programa:
- Correspondencia con los objetivos de las
sesiones y del programa.
- Viabilidad para la aplicación práctica de los
contenidos.
- Variedad
- Capacidad de promover la participacn y la
reflexión de los participantes.
Análisis del sistema de evaluacn:
-Sistematicidad en la recogida, procesamiento y
análisis de información.
- Obtención de la informacn necesaria para
evaluar el cumplimiento de los objetivos y los
resultados alcanzados mediante los recursos
cnicos empleados.
- Combinacn de múltiples fuentes de
evaluación (equipo de coordinación/ evaluador
externo/ participantes del programa/organización
receptora)
-Observación de las
sesiones grupales y de
todo el proceso de
implementación.
-Análisis de contenido
y dimica de las
sesiones, haciendo
énfasis en los
indicadores descritos.
- Alisis de contenido
y estastico de las
producciones de los
participantes.
Evaluacn
de la
dinámica
grupal
Participación en las sesiones:
- Asistencia
- Calidad de la participación
Interpretación de resistencias:
-Incertidumbre con relación a la tarea.
30
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
-Evasn de la tarea.
-Resistencias a la aplicación de recursos técnicos.
-Resistencias a los cambios de enfoques de
referencia.
Conflictos de roles (ambigüedad de rol, conflicto
intra-rol, conflicto inter-rol, conflicto entre los
roles de diferentes participantes).
Clima sociopsicológico que predomina en el
grupo:
- Colaboración/rivalidad.
- Liderazgo individual/liderazgo compartido.
- Manejo de los conflictos emergentes en la
implementación del programa.
Evaluacn
de los
resultados
parciales por
sesiones.
Cumplimiento de los objetivos de cada sesión por
parte de los participantes.
Evidencia de aspectos no previstos en el diseño
de las sesiones
Contenidos de mayor dificultad de aprendizaje:
-Carencia de profundidad y reflexión con un tema
en particular.
-Necesidad de reiteración o aclaraciones por
parte del coordinador.
Fuente: Elaboración propia
Tabla 2. Metodología para la evaluación de los resultados del programa, una vez finalizado
Dimensiones
Subdimensiones/Indicadores
Métodos e Instrumentos de
evaluacn.
Evaluacn
del
aprendizaje
Diferencias entre el nivel de entrada
y salida de los participantes.
Identificación de contenidos no
aprendidos al finalizar el programa.
Valoración del programa por parte
de los participantes.
- Encuesta de autoevaluación de la
preparación para desempeñar el rol en
que se están formando.
- Encuesta de valoracn del programa
por parte de los participantes.
- Análisis del desempeño de los
participantes al realizar la tarea final del
programa (diseñada sen las
competencias que se deseen formar).
Evaluacn
del impacto
del
programa
Transferencia de lo aprendido al rol
para el cual se forman las
competencias.
Evidencias de la formación de las
competencias en los participantes.
Evidencias de cambios en la
organización con relación a la
formación de las competencias.
- Reporte verbal y escrito en cada
sesión de las acciones que han realizado
en sus puestos laborales y los
obsculos para hacerlo, aplicando lo
aprendido en el programa.
- Triangulacn de los resultados de los
diferentes todos e instrumentos de
evaluación para diseñar indicadores
comportamentales de la formación de
las competencias.
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
31
- Análisis documental de archivos de la
organización donde se reflejen cambios
relacionados con los contenidos del
programa.
- Entrevistas individuales y grupales a
informantes claves
Evaluacn
de los
recursos
necesarios
para su
implementa
ción
Análisis de los recursos materiales:
- Registro de los recursos
(materiales didácticos,
documentacn) y condiciones
ambientales (aula, mobiliario) que
se utilizaron y fueron indispensables
para el logro de los resultados
positivos.
Análisis de los recursos humanos:
- Registro de las funciones del
equipo de coordinacn, según los
efectos positivos de estas en el logro
de los resultados del programa,
puntualizando también aquellas que
influyeron negativamente.
- Registro de los niveles de ayuda
necesarios por parte de la institución
y sus representantes.
- Observación de las sesiones grupales
y de todo el proceso de aplicacn.
-Análisis de contenido y dinámica de
las sesiones, haciendo énfasis en los
indicadores descritos.
Fuente: Elaboración propia
Resultados de la validación de la estrategia de evaluación a través del criterio de expertos.
La validación de la estrategia se realizó a tras del criterio de expertos en torno a la validez de
la misma, con la participación de especialistas cuyas funciones se relacionan con los contenidos
del mismo.
El cuestionario diseñado para la evaluación de la estrategia por expertos obtuvo un Coeficiente
Alfa de Cronbach de 0.84, lo que indica que presenta una adecuada confiabilidad.
A continuación, se hace referencia a los cuatro ítems que aluden a la estrategia de evaluacn del
programa. Las respuestas de los expertos se ofrecieron a través de una escala Likert, cuyos
valores oscilan entre uno (1) y cinco (5), donde el 1 y 2 hacen referencia a criterios a favor de la
adecuacn de los elementos de la estrategia de evaluación, el 3 indica un término medio o una
posible indecisn y el 4 y 5, criterios en desacuerdo con las afirmaciones realizadas sobre la
evaluación del programa.
En la Figura 1 se presentan los resultados alcanzados en estos ítems, a través del cálculo de la
media y la desviación estándar de los mismos:
32
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
Figura 1. Valores de media de los ítems sobre la estrategia de evaluación del programa.
Fuente: Elaboracn propia
Se puede observar la estrategia de evaluación del programa fue muy bien valorada por los
expertos, encontrándose la media de respuestas entre 1 y 1.62, la cuales representan las
categorías Totalmente de Acuerdo y De Acuerdo en la escala Likert. Por su parte, la desviación
típica muestra valores muy bajos, todos por debajo de 1, lo cual indica que existe homogeneidad
en las respuestas de los expertos, analizado a partir de la agrupacn de los datos alrededor de la
media como valor.
El estadígrafo utilizado para calcular el coeficiente de concordancia entre respuestas fue el
coeficiente de Kendall W., el cual adquiere un valor de 0.71, dato que sugiere un consenso
aceptable en las valoraciones emitidas por los expertos. A su vez, posee una significación
asintótica de 0.00, mostrando que el consenso logrado en las respuestas no se debe al azar. Como
información complementaria, se calcularon los valores de frecuencias acumuladas por aspectos
en los respectivos ítems, lo que se recoge en la tabla 3 a continuacn.
Tabla 3. Frecuencias acumuladas en las respuestas a los ítems sobre estrategia de evaluación
Indicador evaluado / escala de respuesta
Frecuencia
%
Porcentaje
acumulado
La estrategia de evaluación combina diferentes fuentes
- Totalmente de acuerdo
11
84,6
84,6
- De Acuerdo
2
15,4
100
Los indicadores de evaluación permiten acceder a
información suficiente para evaluar cada una de las
dimensiones de la estrategia de evaluación
- Totalmente de acuerdo
6
46,2
46,2
- De Acuerdo
6
46,2
92,3
- Medianamente de acuerdo
1
7,7
100
Los métodos y técnicas de evaluación se corresponden con los
indicadores de evaluación
- Totalmente de acuerdo
6
46,2
46,2
- De Acuerdo
7
53,8
100
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
33
La evaluación final del programa se corresponde con el
objetivo del mismo
- Totalmente de acuerdo
11
84,6
84,6
- De Acuerdo
2
15,4
100
Fuente: Elaboracn propia
Como se observa, las respuestas de los expertos alcanzan un acuerdo superior a 92% en todos
los ítems evaluados. Debido a las valoraciones favorables emitidas con relación a la estrategia
de evaluación del programa y el elevado consenso alcanzado, no se necesitan realizar
modificaciones considerables a la misma, ni someterla a una segunda ronda de validacn.
Resultados de la validación de la estrategia de evaluación a partir de su implementación
Análisis del sistema de evaluación
- Sistematicidad en la recogida, procesamiento y alisis de informacn. Para la recogida
exhaustiva de la información necesaria se decidió, con el consentimiento de los participantes,
filmar las sesiones grupales y realizar relatorías detalladas de las mismas. Además, por la riqueza
de la información que se obtiene mediante la observación de las sesiones durante su desarrollo,
estuvo presente en cada una de ellas una evaluadora externa que anoaquellos elementos de
interés para el análisis de los indicadores de evaluación. El resto de la información se obtuvo
mediante las técnicas escritas entregadas por los participantes.
-
En el caso del procesamiento de la información se emplearon diferentes aproximaciones. Las
cnicas cuantitativas se procesaron mediante el uso del paquete estadístico SPSS v.22. Para el
procesamiento cualitativo, se realizaron análisis de contenido y dinámica del proceso grupal, lo
que engloba cada una de las sesiones y las producciones escritas de los participantes.
Para el análisis de la información, igualmente se emplearon diferentes métodos según la
naturaleza de los datos. En el caso de los datos cuantitativos se analizaron utilizando las pruebas
estadísticas pertinentes, tales como estadísticos descriptivos (frecuencia relativa, media y
desviacn estándar), Coeficiente Alfa de Cronbach para determinar la confiablidad de los
cuestionarios diseñados y Prueba no paramétrica Wilcoxon para 2 muestras relacionadas, para
comparar los resultados de los participantes durante las dos aplicaciones de los instrumentos (al
inicio y al final del programa) en búsqueda de diferencias significativas en la formación de
competencias.
Los análisis cualitativos se desarrollaron de manera parcial, sen las subdimensiones de
evaluación, en cada una de las sesiones. Estos se acompañaron de reuniones de trabajo del equipo
de coordinación, posteriores a las sesiones, donde se analizaba lo acontecido y se perfeccionaba
la siguiente sesn. Luego de culminada la implementacn del programa se integraron estos
resultados, construyéndose indicadores comportamentales que reflejaron el avance del grupo y
demostraron la formacn en los participantes de las competencias.
La Figura 2 refleja el proceso de implementación de la estrategia de evaluación, evidencndose
el carácter sistemático de la recogida, el procesamiento y análisis de los datos que realizó el
equipo de coordinación, necesario para una evaluación eficiente y exitosa.
34
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
Figura 2. Proceso de implementación de la estrategia de evaluación.
Fuente: Elaboracn propia
- Obtención de la información necesaria para evaluar el cumplimiento de los objetivos y los
resultados alcanzados mediante los recursos técnicos empleados.
Los recursos técnicos permitieron obtener la información necesaria para la evaluación de la
implementación del programa, ya que desde su diso fueron concebidos para acceder al
conocimiento cito de los participantes sobre los temas del programa, potenciar la reflexión
crítica sobre los mismos y comprobar la aplicación de lo aprendido. De ahí que no solo existió
la posibilidad de evaluar cada cnica en sí misma y el cumplimiento de su objetivo, sino que
también fue viable obtener evidencias del logro de los objetivos de cada sesión. Se elaboraron
indicadores que atestiguaron la evolución de los participantes durante el programa, estableciendo
un punto de partida, cortes de valoración parcial de los resultados durante las sesiones y una
evaluación final.
- Combinación de múltiples fuentes de evaluación (equipo de coordinación/ evaluadores
externos/ participantes del programa/organización receptora)
Para la evaluación se utilizaron recursos técnicos con diferentes perspectivas de análisis: la
reflexión y discusn sobre los contenidos del programa que permitían a la coordinación y la
observadora externa evaluar los resultados, la pertinencia y utilidad de los mismos y la
autoevaluación de los participantes sobre su experiencia de aprendizaje durante el programa y la
valoración del mismo. Asimismo, se consideró crucial para el proceso de aprendizaje que los
participantes evaluaran su desempeño en el rol para el cual se forman con respecto a los nuevos
contenidos aprendidos, posibles necesidades de conocimientos y también retroalimentaran a la
coordinación sobre aspectos a perfeccionar del programa.
La informacn recogida a partir de estas diferentes perspectivas de análisis permitió que se
disaran las funciones del equipo de coordinación para realizar el proceso de evaluacn de
manera exitosa:
- Funciones del coordinador: garantizar la implementación adecuada de las sesiones
disadas y el funcionamiento del equipo de coordinación para el proceso de
evaluación. Analizar el funcionamiento grupal en cuanto a contenido y dinámica,
incluir momentos parciales de evaluacn durante el proceso grupal y modificar las
sesiones, según las recomendaciones del evaluador.
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
35
- Funciones del evaluador externo: Participar en el diseño de las sesiones para
garantizar el acceso a la información necesaria, analizar la dinámica y el contenido de
las sesiones, analizar las producciones de los participantes, retroalimentar a la
coordinación, recomendar modificaciones al programa y la evaluación para
perfeccionarlos y evaluar los impactos y los recursos humanos necesarios.
- Funciones del co-coordinador: Garantizar que se disponga de los recursos necesarios
para implementar las técnicas que tributan a la evaluación y retroalimentar al
coordinador sobre sus funciones y el transcurso de la sesión.
- Funciones del registrador: Registrar detalladamente toda la información de las
sesiones para su posterior alisis.
De esta forma, se han mostrado un grupo de principios, dimensiones, indicadores y técnicas que
pueden resultar útiles para la evaluación de un programa de formacn, la cual involucra la
triangulación de diversas fuentes de información, métodos y sistematicidad en la recogida de la
información. Estos pueden resultar útiles para el diseño de una estrategia de evaluación de
programa de formación, siempre que se ajuste a las características del contexto de
implementación.
Conclusiones
Se diseñó la estrategia de evaluación del programa de formación de competencias para la
gestión eficaz de la SST, atendiendo a los siguientes elementos invariantes: referentes
teóricos, objetivos de evaluación, fuentes de evaluación, metodología, dimensiones e
indicadores y métodos e instrumentos.
La estrategia diseñada fue validada por criterio de expertos, obteniendo un adecuado consenso
en las valoraciones positivas agrupadas en las escalas: de acuerdo y totalmente de acuerdo.
Se implementó la estrategia validada durante la aplicación del programa y luego de finalizado
el mismo, cumpliendo con su objetivo fundamental, ya que permitió recopilar, procesar y
analizar toda la información indispensable para valorar los resultados del programa.
Se evidencia la diversidad de elementos invariantes que debe tener una estrategia para la
evaluación de un programa de formación, desde su diseño hasta su implementación. De esta
forma, se aporta una metodología que puede resultar guía útil a los profesionales que
pretendan evaluar un sistema de formación en el contexto organizacional o educativo.
Referencias bibliográficas
Abdala, E. (2004). Manual para la evaluación de impacto en programas de formación para
jóvenes. Montevideo: CINTERFOR/OIT. www.cinterfor.org.uy
Alles, M. (2002). Dirección Estratégica de Recursos Humanos. Gestión por competencias.
Granicas S.A. Argentina.
36
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
Almeyda, A. (2017). Programa de orientación profesional para la elección profesional
responsable. Tesis presentada en opción al Grado Científico de Doctor en Ciencias
Psicológicas. Facultad de Psicología de la Universidad de La Habana. La Habana.
Avolio de Cols, S., y Lacolutti, M.D. (2006). Orientaciones metodológicas para el diseño de
la evaluación diagnóstica, de proceso y final en formación por competencias laborales.
En A. Catalano, Enseñar y evaluar en formación por competencias laborales:
orientaciones conceptuales y metodológicas. Primera Edición. BID/FOMIN;
CINTERFOR/OIT. Buenos Aires. ISBN 987-1182-52-X.
Avolio de Cols, S., y Lacolutti, M. (2006ª). Capítulo 6. La evaluación en el marco de la
formación profesional. En A. Catalano, Enseñar y evaluar en formación por
competencias laborales: orientaciones conceptuales y metodológicas. Primera Edición.
BID/FOMIN; CINTERFOR/OIT. Buenos Aires.
Buendía, L., y Berrocal, E. (2008). Evaluación de un programa de formación ocupacional
para la inserción laboral. Revista de Investigación Educativa, 26 (1), 157-190.
http://dx.doi.org/10.6018/rie.32.3
Buendía, L., Expósito, J., y Sánchez, M. (2012). Investigación evaluativa de programas de
formación profesional para el empleo en el ámbito local. Revista de Investigación
Educativa, 30 (1), 161-179. http://dx.doi.org/10.6018/rie.32.4
Cabrera, J. (2005). Evaluación de la capacitación y de su impacto en el desempeño individual
y organizacional en Cuba. Ponencia. V Congreso Internacional Virtual de Educación.
www.cibereduca.com
Chacón, S., Anguera, M., y López, J. (2000). Diseños de evaluación de programas: bases
metodológicas. Psicothema, 12 (2), 127-131.
Cuesta, A. (2012). Modelo Integrado de gestión humana y del conocimiento: una tecnología
de aplicación. Revista Venezolana de Gerencia, 17 (57), 86-98.
De Miguel, M., Pereira, M., Pascual, J., y Carrio, E. (2008). Evaluación de programas de
empleo-formación. Metodología de estudio. Revista de Investigación Educativa, 26 (1),
247-270. http://dx.doi.org/10.6018/rie.32.4
Fernández-Ballesteros, R. (1998). Evaluación psicológica, algunas claves para el futuro.
Papeles del psicólogo, (70).
http://www.papelesdelpsicologo.es/vernumero.asp?id=780
Gairín, J. (2010). La evaluación del impacto en programas de formación. Revista
Iberoamericana sobre Calidad, Eficacia y Cambio en Educación, 8 (5), 19-43.
http://www.redalyc.org/articulo.oa?id=55119084002
Gertler, P., S., M., Premand, P., Rawlings, L. C., y Vermeersch, M. J. (2011). La evaluación
de impacto en la práctica. Banco Internacional de Reconstrucción y Fomento/Banco
Mundial. http://www.worldbank.org/pdt
Goldstein, I. (1993). Training in Organizations. Tercera Edición. Brooks/Cole. Pacific
Grove.
Hernández-Sampieri, R. y Mendoza, C.P. (2018). Metodología de la investigación: las
rutas cuantitativa, cualitativa y mixta. McGraw-Hill Education, xico. ISBN:
ISBN: 978-1-4562-6096-5.
Jornet, J., Suárez, J., y Pérez, A. (2000). La validez en la evaluación de programas. Revista
de Investigación Educativa, 18 (2), 341-356.
Marcano, N., Aular de Durán, J., y Finol de Franco, M. (2009). Cuestiones conceptuales
básicas en torno a la evaluación de programas. Omnia, 15 (3), 9-30.
http://www.redalyc.org/articulo.oa?id=73712297002
Arianne Medina, Anabel Valdés. Metodología para evaluar programas de formación de competencias en el contexto
organizacional
37
Medina, A. (2019). Diseño y validación de un programa de formación de competencias para
la gestión eficaz de la seguridad y salud en el trabajo. Revista Katharsis, 28, julio-
diciembre, 42-58. https://doi.org/10.25057/issn.2500-5731
Medina, A. (2017). Programa de formación de competencias para la gestión eficaz de la
SST. Evaluación en una empresa biotecnológica. Tesis en opción al grado científico de
Doctor en Ciencias Psicológicas. Facultad de Psicología de la Universidad de La
Habana. La Habana.
Medina, A., y Vitier, A. (2016). Socializando buenas prácticas sobre diseño de perfiles de
competencias. Alternativas cubanas en Psicología, 4 (10), 67-76.
https://acupsi.org/articulo/138/socializando-buenas-prcticas-sobre-diseo-de-perfiles-
de-competencias.html
Oficina Nacional de Normalización (ONN). (2007). NC 3000: Sistema de Gestión Integrada
de Capital Humano-Vocabulario. La Habana.
Oficina Nacional de Normalización (ONN). (2007). NC 3001: Sistema de Gestión Integrada
de Capital Humano-Requisitos. La Habana.
Oficina Nacional de Normalización (ONN). (2007). NC 3002: Sistema de Gestión Integrada
de Capital Humano-Implementación. La Habana.
Organización Internacional del Trabajo/Cinterfor. (2011). Guía para la evaluación de
impacto de la formación. Montevideo.
http://www.oitcinterfor.org/publicaci%C3%B3n/gu%C3%ADa-evaluaci%C3%B3n-
impacto-formaci%C3%B3n
Parra, R. y Ruiz, C. (2021). Evaluación de una formación de líderes escolares: aprendizaje
desde los participantes. Profesorado, 25 (2), Julio.
http://doi.org/1030827/profesorado.v25i2.8708
Peña, L. (2016). Gestión eficaz de la seguridad y salud en un centro de biotecnología.
Trabajo de Diploma. Facultad de Psicología, Universidad de La Habana. La Habana.
Pérez, R. (2016). Evaluation, quo vadis?. Pedagogical reflections on a trite yet highly
relevant subject. Revista de Investigación Educativa, 34 (1), 13-30.
http://dx.doi.org/10.6018/rie.34.1.239381
Rabadán, J., Hernández, E., & Rabal, J. (2014). Evaluación de la metodología en programas
de formación profesional para el empleo de la Región de Murcia. Revista de
Investigación Educativa, 32 (2), 425-445. http://dx.doi.org/10.6018/rie.32.2.
Rodríguez, Y. (2016). Gestión de riesgos y factores de riesgos psicosociales en un centro de
biotecnología. Trabajo de Diploma. Facultad de Psicología, Universidad de La Habana.
La Habana.
Sirhan, M., y Triviño, X. (2012). Evaluación de una experiencia de capacitación en
planificación educacional para directores de programas de las especialidades médicas.
Revista Médica de Chile, (140), 530-537.
Tejada, J. Evaluación de Programas. En Módulo VI: Investigación e innovación formativa,
Unidad Didáctica: La evaluación de Programas. CIFO. 2004.
Tejada, J., y Ferrández, E. (2007). La evaluación del impacto de la formación como estrategia
de mejora en las organizaciones. Revista Electrónica de Investigación Educativa, 9 (2).
http://redie.uabc.mx/vol9no2/contenido-tejada2.html
Tejada, J., Ferrández, E., Jurado, P., Mas, O., Navío, A., y Ruiz, C. (2008). Implicaciones de
la evaluación de impacto: Una experiencia en un programa de formación de formadores.
Bordón, 60 (1), 163-185. Universitat Autónoma de Barcelona.
Torres, J., Perera, V., y Cobos, D. (2014). Investigación evaluativa de la formación online
en prevención de riesgos laborales y medio ambiente: un análisis cualitativo de los
38
PSIDIAL: Psicología y Diálogo de Saberes
e-ISSN
https://revistas.utm.edu.ec/index.php/psicologia
Vol. 1 Núm. 1 (19-38): Enero - junio 2022
psidial@utm.edu.ec
Universidad Técnica de Manabí
DOI: https://doi.org/10.5281/zenodo.5852587
programas impartidos por la fundación Istas. Revista de Investigación Educativa, 32
(1), 73-90. http://dx.doi.org/10.6018/rie.32.1.166621
Valdés, A. (2016). Evaluación del programa de orientación profesional Elige tu futuro.
Trabajo de diploma. Facultad de Psicología de la Universidad de La Habana. La
Habana.
Valdés, A. (2016). Evaluación de los resultados del programa GeSSTar. Tesis presentada
en opción al Título académico de Máster en Psicología Laboral y de la Organizaciones.
Facultad de Psicología de la Universidad de La Habana. La Habana.
Contribución de los Autores
Autor
Contribución
Arianne Medina Macías
Concepción y diseño, investigación; metodología,
redacción y revisión del artículo, análisis e
interpretación
Anabel Valdés Gonzáles
Investigación, adquisición de datos, análisis e
interpretación.