Mostrar el registro sencillo del ítem

dc.contributor.authorCalaf Chica, José 
dc.contributor.authorGarcía Tárrago, María José 
dc.date.accessioned2024-01-11T11:59:46Z
dc.date.available2024-01-11T11:59:46Z
dc.date.issued2021
dc.identifier.issn0034-8082
dc.identifier.urihttp://hdl.handle.net/10259/8301
dc.description.abstractDurante gran parte del siglo XX se ha escrito mucho sobre la fiabilidad de los test multirrespuesta como método para la evaluación de contenidos. En concreto son muchos los estudios teóricos y empíricos que buscan enfrentar los distintos sistemas de puntuación existentes. En esta investigación se ha diseñado un algoritmo que genera estudiantes virtuales con los siguientes atributos: conocimiento real, nivel de cautela y conocimiento erróneo. El primer parámetro establece la probabilidad que tiene el alumno de conocer la veracidad o falsedad de cada opción de respuesta del test. El nivel de cautela refleja la probabilidad de responder a una cuestión desconocida. Finalmente, el conocimiento erróneo es aquel conocimiento falsamente asimilado como cierto. El algoritmo también tiene en cuenta parámetros de configuración del test como el número de preguntas, el número de opciones de respuesta por pregunta y el sistema de puntuación establecido. El algoritmo lanza test a los individuos virtuales analizando la desviación generada entre el conocimiento real y el conocimiento estimado (la puntuación alcanzada en el test). En este estudio se confrontaron los sistemas de puntuación más comúnmente utilizados (marcado positivo, marcado negativo, test de elección libre y método de la respuesta doble) para comprobar la fiabilidad de cada uno de ellos. Para la validación del algoritmo, se comparó con un modelo analítico probabilístico. De los resultados obtenidos, se observó que la existencia o no de conocimiento erróneo generaba una importante alteración en la fiabilidad de los test más aceptados por la comunidad educativa (los test de marcado negativo). Ante la imposibilidad de comprobar la existencia de conocimiento erróneo en los individuos a través de un test, es decisión del evaluador castigar su presencia con el uso del marcado negativo, o buscar una estimación más real del conocimiento real a través del marcado positivo.es
dc.description.abstractDuring the twentieth century many investigations have been published about the reliability of the multiple-choice tests for subject evaluation. Specifically, there are a lot of theoretical and empirical studies that compare the different scoring methods applied in tests. A novel algorithm was designed to generate hypothetical examinees with three specific characteristics: real knowledge, level of cautiousness and erroneous knowledge. The first one established the probability to know the veracity or falsity of each answer choice in a multiple-choice test. The cautiousness level showed the probability to answer an unknown question by guessing. Finally, the erroneous knowledge was false knowledge assimilated as true. The test setup needed by the algorithm included the test length, choices per question and the scoring system. The algorithm launched tests to these hypothetical examinees analysing the deviation between the real knowledge and the estimated knowledge (the test score). The most popular test scoring methods (positive marking, negative marking, free-choice tests and the dual response method) were analysed and compared to measure their reliability. In order to validate the algorithm, this was compared with an analytical probabilistic model. This investigation verified that the presence of the erroneous knowledge generates an important alteration in the reliability of the most accepted scoring methods in the educational community (the negative marking method). In view of the impossibility of ascertaining the existence of erroneous knowledge in the examinees using a test, the examiner could penalize its presence with the use of negative marking, or looking for a best fitted estimation of the real knowledge with the positive marking method.en
dc.format.mimetypeapplication/pdf
dc.language.isospaes
dc.publisherSubdirección General de Documentación y Publicacioneses
dc.relation.ispartofRevista de Educación. 2021, n. 392, p. 63-95es
dc.rightsAttribution-NonCommercial 3.0 Unported*
dc.rights.urihttp://creativecommons.org/licenses/by-nc/3.0/*
dc.subjectTest Multirrespuestaes
dc.subjectSimulación Computacionales
dc.subjectPuntuaciónes
dc.subjectEvaluaciónes
dc.subjectMétodo de Monte Carloes
dc.subjectTest Reliabilityen
dc.subjectComputer Simulationen
dc.subjectScoringen
dc.subjectEvaluationen
dc.subjectMonte Carlo Methodsen
dc.subject.otherIngeniería civiles
dc.subject.otherCivil engineeringen
dc.subject.otherIngeniería eléctricaes
dc.subject.otherElectric engineeringen
dc.subject.otherIngeniería mecánicaes
dc.subject.otherMechanical engineeringen
dc.subject.otherEnsayos (Tecnología)es
dc.subject.otherTestingen
dc.titleEstudio de la fiabilidad de test multirrespuesta con el método de Monte Carloes
dc.title.alternativeReliability analysis of multiple-choice tests with the Monte Carlo methoden
dc.typeinfo:eu-repo/semantics/articlees
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.relation.publisherversionhttps://www.educacionyfp.gob.es/revista-de-educacion/numeros-revista-educacion/numeros-anteriores/2021/392/392-3.htmles
dc.identifier.doi10.4438/1988-592X-RE-2021-392-479
dc.identifier.essn1988-592X
dc.journal.titleRevista de Educaciónes
dc.issue.number392es
dc.page.initial63es
dc.page.final95es
dc.type.hasVersioninfo:eu-repo/semantics/publishedVersiones


Ficheros en este ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem