A continuación se presenta el diseño de un ítem de arrastrar y soltar alineado con la taxonomía cognitiva revisada de Bloom. El ítem utiliza exactamente las seis etiquetas provistas en chino simplificado: 记忆, 理解, 应用, 分析, 评价, 创造. La redacción, la estructura y las decisiones de puntuación siguen buenas prácticas de desarrollo de ítems y estándares de validez en evaluación educativa (Anderson & Krathwohl, 2001; AERA, APA, & NCME, 2014; Haladyna & Rodriguez, 2013; Zenisky & Sireci, 2002; Parshall et al., 2000).
Propósito y alineación
- Constructo: clasificación correcta de objetivos o tareas según el nivel cognitivo de la taxonomía revisada de Bloom.
- Evidencia esperada: el examinado identifica el nivel cognitivo subyacente a enunciados de desempeño que requieren recordar, comprender, aplicar, analizar, evaluar o crear (Anderson & Krathwohl, 2001).
Formato del ítem (arrastrar y soltar)
- Instrucciones al examinado: Arrastre cada etiqueta (en chino simplificado) hacia el enunciado que mejor ejemplifique ese nivel cognitivo. Puede mover una etiqueta solo a un recuadro. Si desea cambiar una respuesta, arrastre la etiqueta a otro recuadro.
- Elementos arrastrables (6): 记忆; 理解; 应用; 分析; 评价; 创造.
- Accesibilidad recomendada: cada ficha debe incluir un aria-label en español, por ejemplo: 记忆 [Recordar]; 理解 [Comprender]; 应用 [Aplicar]; 分析 [Analizar]; 评价 [Evaluar]; 创造 [Crear]. Esto evita varianza irrelevante por idioma sin alterar el constructo (AERA, APA, & NCME, 2014).
- Zonas de destino (6). Seleccione la etiqueta que corresponda al nivel cognitivo ejemplificado por cada enunciado:
- Explicar con sus propias palabras el concepto de “validez de constructo” y proporcionar un ejemplo diferente al visto en clase.
- Seleccionar y ejecutar el procedimiento adecuado para resolver un conjunto de ejercicios que siguen el mismo patrón que en la práctica.
- Identificar supuestos no declarados y la relación causal propuesta entre variables en un artículo de investigación.
- Recordar, sin apoyo de materiales, la lista de sesgos de respuesta más frecuentes en cuestionarios de opinión.
- Juzgar la calidad metodológica de un estudio empírico con base en criterios explícitos (p. ej., validez interna, externa y fiabilidad), justificando el juicio.
- Diseñar un instrumento original para medir “compromiso estudiantil”, integrando indicadores y criterios de puntuación coherentes con un marco teórico.
Clave de corrección
- Mapeo correcto:
- 记忆 → enunciado 4
- 理解 → enunciado 1
- 应用 → enunciado 2
- 分析 → enunciado 3
- 评价 → enunciado 5
- 创造 → enunciado 6
- Razonamiento:
- 记忆 (Recordar): recuperación de información factual (4).
- 理解 (Comprender): construir significado, reinterpretar y ejemplificar (1).
- 应用 (Aplicar): ejecutar/implementar procedimientos en tareas familiares (2).
- 分析 (Analizar): descomponer, identificar relaciones/estructura y supuestos (3).
- 评价 (Evaluar): emitir juicios con criterios y evidencias (5).
- 创造 (Crear): generar un producto nuevo y coherente (6).
- Ver Anderson y Krathwohl (2001).
Puntuación
- Opción A (dicotómica por emparejamiento): 1 punto por emparejamiento correcto, 0 por incorrecto; total máximo = 6.
- Opción B (parcial crediticia): otorgar 1 punto por acierto; total 0–6. Normalizar a la escala de la prueba si es necesario. La opción B permite modelado politómico posterior (p. ej., modelos de crédito parcial).
- Reglas operativas: no penalizar cambios antes de la entrega; registrar el proceso (número de intentos, latencias) como datos auxiliares, sin incorporarlos a la puntuación salvo validación previa (AERA, APA, & NCME, 2014; Zenisky & Sireci, 2002).
Retroalimentación (posentrega, formativa)
- Por cada emparejamiento incorrecto, mostrar una justificación breve:
- Si el examinado empareja “分析” con un enunciado de juicio con criterios, aclarar: “Evaluar implica emitir juicios basados en criterios; Analizar implica descomponer y reconocer relaciones y supuestos.”
- Incluir referencias cruzadas a definiciones canónicas de cada nivel.
Consideraciones de validez y equidad
- Validez de contenido: los enunciados derivan de descriptores operativos del marco revisado (Anderson & Krathwohl, 2001).
- Validez de proceso: el formato de arrastrar y soltar evalúa la clasificación conceptual; no requiere producción extensa de texto, reduciendo construct-irrelevant variance por habilidades de redacción (Parshall et al., 2000).
- Equidad y accesibilidad:
- Proveer etiquetas con aria-label y alternativas de teclado; cumplir WCAG 2.1 AA.
- Evitar dependencia del color; proporcionar contraste alto y áreas de destino suficientemente grandes.
- Dado el uso de chino simplificado en las fichas, asegurar equivalentes textuales en español accesibles para lector de pantalla y, si procede, visibles como “etiquetas bilingües” para eliminar la carga lingüística no constructiva (AERA, APA, & NCME, 2014).
Uso y control de calidad
- Piloto: administrar a una muestra representativa; estimar dificultad (p-valor) y discriminación (p. ej., correlación puntual-biserial objetivo > 0.20).
- Análisis: revisar patrones de error sistemáticos (p. ej., confusión recurrente entre analizar y evaluar); ajustar redacción de enunciados para mejorar discriminación si es necesario (Haladyna & Rodriguez, 2013).
- Dependencia local: verificar que las seis correspondencias no induzcan efectos de eliminación de opciones; considerar banco con ítems paralelos para mejorar fiabilidad de subescala.
Metadatos sugeridos para el banco de ítems
- Objetivo curricular: clasificación de niveles cognitivos de la taxonomía revisada de Bloom.
- Dificultad esperada: media.
- Tiempo estimado: 2–3 minutos.
- Requisitos técnicos: navegador con soporte ARIA; interacción por mouse/teclado; registro de eventos.
Referencias (formato APA 7.ª edición)
- American Educational Research Association, American Psychological Association, & National Council on Measurement in Education. (2014). Standards for educational and psychological testing. American Educational Research Association.
- Anderson, L. W., & Krathwohl, D. R. (Eds.). (2001). A taxonomy for learning, teaching, and assessing: A revision of Bloom’s taxonomy of educational objectives. Longman.
- Haladyna, T. M., & Rodriguez, M. C. (2013). Developing and validating test items (3rd ed.). Routledge.
- Parshall, C. G., Davey, T., Pashley, P. J., & Thompson, N. A. (2000). Innovative item types for computerized testing. In W. J. van der Linden & C. A. W. Glas (Eds.), Computerized adaptive testing: Theory and practice (pp. 129–148). Kluwer Academic.
- Zenisky, A. L., & Sireci, S. G. (2002). Innovative item types in large-scale assessment. Applied Measurement in Education, 15(4), 331–350.