<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-04-20T02:05:33Z</responseDate><request verb="GetRecord" identifier="oai:riubu.ubu.es:10259/8342" metadataPrefix="edm">https://riubu.ubu.es/oai/request</request><GetRecord><record><header><identifier>oai:riubu.ubu.es:10259/8342</identifier><datestamp>2024-05-15T07:48:57Z</datestamp><setSpec>com_10259_4219</setSpec><setSpec>com_10259_5086</setSpec><setSpec>com_10259_2604</setSpec><setSpec>col_10259_4220</setSpec></header><metadata><rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ore="http://www.openarchives.org/ore/terms/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:ds="http://dspace.org/ds/elements/1.1/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:edm="http://www.europeana.eu/schemas/edm/" xsi:schemaLocation="http://www.w3.org/1999/02/22-rdf-syntax-ns# http://www.europeana.eu/schemas/edm/EDM.xsd">
<edm:ProvidedCHO rdf:about="http://hdl.handle.net/10259/8342">
<dc:creator>Serrano Mamolar, Ana</dc:creator>
<dc:creator>Miguel Alonso, Inés</dc:creator>
<dc:creator>Checa Cruz, David</dc:creator>
<dc:creator>Pardo Aguilar, Carlos</dc:creator>
<dc:date>2023-05</dc:date>
<dc:description>Actualmente, el uso de los datos del seguimiento de la mirada en entornos de aprendizaje de Realidad Virtual inmersiva (iVR) está destinado a ser una herramienta fundamental para maximizar los resultados de aprendizaje, dada la naturaleza poco intrusiva del eye-tracking y su integración en las gafas comerciales de Realidad Virtual. Pero, antes de que se pueda generalizar el uso del eye-tracking en entornos de aprendizaje, se deben identificar las tecnologías más adecuadas para el procesamiento de datos. Esta investigación propone el uso de técnicas de aprendizaje automático para este fin, evaluando sus capacidades para clasificar la calidad del entorno de aprendizaje y predecir el rendimiento de aprendizaje del usuario. Para ello, se ha desarrollado una experiencia docente en iVR para aprender el manejo de un puente-grúa. Con esta experiencia se ha evaluado el rendimiento de 63 estudiantes, tanto en condiciones óptimas de aprendizaje como en condiciones con factores estresores. El conjunto de datos final incluye 25 características, siendo la mayoría series temporales con un tamaño de conjunto de datos superior a 50 millones de puntos. Los resultados muestran que la aplicación de diferentes clasificadores como KNN, SVM o Random Forest tienen una alta precisión a la hora de predecir alteraciones en el aprendizaje, mientras que la predicción del rendimiento del aprendizaje del usuario aún está lejos de ser óptima, lo que abre una nueva línea de investigación futura. Este estudio tiene como objetivo servir como línea de base para futuras mejoras en la precisión de los modelos mediante el uso de técnicas de aprendizaje automático más complejas.</dc:description>
<dc:description>At present, the use of eye-tracking data in immersive Virtual Reality (iVR) learning environments is set to become a&#xd;
powerful tool for maximizing learning outcomes, due to the low-intrusiveness of eye-tracking technology and its integration&#xd;
in commercial iVR Head Mounted Displays. However, the most suitable technologies for data processing should first&#xd;
be identified before their use in learning environments can be generalized. In this research, the use of machine-learning&#xd;
techniques is proposed for that purpose, evaluating their capabilities to classify the quality of the learning environment and&#xd;
to predict user learning performance. To do so, an iVR learning experience simulating the operation of a bridge crane&#xd;
was developed. Through this experience, the performance of 63 students was evaluated, both under optimum learning&#xd;
conditions and under stressful conditions. The final dataset included 25 features, mostly temporal series, with a dataset size&#xd;
of up to 50M data points. The results showed that different classifiers (KNN, SVM and Random Forest) provided the&#xd;
highest accuracy when predicting learning performance variations, while the accuracy of user learning performance was&#xd;
still far from optimized, opening a new line of future research. This study has the objective of serving as a baseline for future&#xd;
improvements to model accuracy using complex machine-learning techniques.</dc:description>
<dc:format>application/pdf</dc:format>
<dc:identifier>http://hdl.handle.net/10259/8342</dc:identifier>
<dc:language>spa</dc:language>
<dc:publisher>Oxbridge Publishing House</dc:publisher>
<dc:title>Hacia un metodología de evaluación del rendimiento del alumno en entornos de aprendizaje iVR utilizando eye-tracking y aprendizaje automático</dc:title>
<dc:type>info:eu-repo/semantics/article</dc:type>
<dcterms:alternative>Towards learner performance evaluation in iVR learning environments using eye-tracking and machine-learning</dcterms:alternative>
<edm:type>TEXT</edm:type>
</edm:ProvidedCHO>
<ore:Aggregation rdf:about="http://hdl.handle.net/10259/8342#aggregation">
<edm:aggregatedCHO rdf:resource="http://hdl.handle.net/10259/8342"/>
<edm:dataProvider>RIUBU. Repositorio Institucional de la Universidad de Burgos</edm:dataProvider>
<edm:isShownAt rdf:resource="http://hdl.handle.net/10259/8342"/>
<edm:isShownBy rdf:resource="https://riubu.ubu.es/bitstream/10259/8342/1/Serrano-rcce_2023.pdf"/>
<edm:object rdf:resource="https://riubu.ubu.es/bitstream/10259/8342/4/Serrano-rcce_2023.pdf.jpg"/>
<edm:provider>Hispana</edm:provider>
<edm:rights rdf:resource="http://creativecommons.org/licenses/by-nc/4.0/"/>
</ore:Aggregation>
<edm:WebResource rdf:about="https://riubu.ubu.es/bitstream/10259/8342/1/Serrano-rcce_2023.pdf">
<edm:rights rdf:resource="http://creativecommons.org/licenses/by-nc/4.0/"/>
</edm:WebResource>
</rdf:RDF></metadata></record></GetRecord></OAI-PMH>