<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-05-12T02:02:31Z</responseDate><request verb="GetRecord" identifier="oai:riubu.ubu.es:10259/11593" metadataPrefix="mets">https://riubu.ubu.es/oai/request</request><GetRecord><record><header><identifier>oai:riubu.ubu.es:10259/11593</identifier><datestamp>2026-05-11T07:10:39Z</datestamp><setSpec>com_10259_2699</setSpec><setSpec>col_10259_2713</setSpec></header><metadata><mets xmlns="http://www.loc.gov/METS/" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xlink="http://www.w3.org/1999/xlink" xsi:schemaLocation="http://www.loc.gov/METS/ http://www.loc.gov/standards/mets/mets.xsd" PROFILE="DSpace METS SIP Profile 1.0" TYPE="DSpace ITEM" ID="&#xa;&#x9;&#x9;&#x9;&#x9;DSpace_ITEM_10259-11593" OBJID="&#xa;&#x9;&#x9;&#x9;&#x9;hdl:10259/11593">
<metsHdr CREATEDATE="2026-05-12T04:02:31Z">
<agent TYPE="ORGANIZATION" ROLE="CUSTODIAN">
<name>Repositorio Institucional de la Universidad de Burgos</name>
</agent>
</metsHdr>
<dmdSec ID="DMD_10259_11593">
<mdWrap MDTYPE="MODS">
<xmlData xmlns:mods="http://www.loc.gov/mods/v3" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:mods xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:role>
<mods:roleTerm type="text">advisor</mods:roleTerm>
</mods:role>
<mods:namePart>Urda Muñoz, Daniel</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">advisor</mods:roleTerm>
</mods:role>
<mods:namePart>Arroyo Puente, Ángel</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">author</mods:roleTerm>
</mods:role>
<mods:namePart>Gil Arroyo, Beatriz</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">other</mods:roleTerm>
</mods:role>
<mods:namePart>Universidad de Burgos. Departamento de Digitalización</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2026-05-08T08:08:38Z</mods:dateAccessioned>
</mods:extension>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2026-05-08T08:08:38Z</mods:dateAvailable>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2025</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="uri">https://hdl.handle.net/10259/11593</mods:identifier>
<mods:abstract>La presente tesis doctoral, desarrollada en el marco del grupo de investigación Grupo&#xd;
de Inteligencia Computacional APlicada (GICAP) de la Universidad de Burgos&#xd;
(UBU), se centra en la aplicación de técnicas de Inteligencia Artificial (IA), concretamente&#xd;
Deep Learning (DL), al control de calidad en la industria textil, con especial&#xd;
atención a la detección automática de defectos en tejidos Batavia y Sarga. Este trabajo&#xd;
se enmarca en la línea de investigación impulsada por el proyecto europeo Deep lEarning&#xd;
for automatiC tExtile iNspecTion (DECENT), en el que participan Investigación&#xd;
Asesoramiento y Desarrollo Textil (Inade), la UBU y el Digital Innovation Hub on&#xd;
Livestock, Environment, Agriculture &amp; Forest (DIH-LEAF) dentro de la segunda convocatoria&#xd;
DIH-WORLD del programa Horizon 2020. Dicho proyecto impulsó la línea&#xd;
de investigación y proporcionó los recursos necesarios para el desarrollo del dataset, la&#xd;
experimentación y el modelado de la visión artificial.&#xd;
El objetivo general de esta tesis es desarrollar, analizar y evaluar la aplicación&#xd;
de técnicas de DL para la detección automatizada de defectos en tejidos,&#xd;
proporcionando un sistema más objetivo y consistente que la inspección manual, que&#xd;
sirva como base para futuras aplicaciones industriales.&#xd;
La metodología se diseñó para garantizar resultados realistas y robustos. Se comenzó&#xd;
con la adquisición de 2.755 imágenes de tejido Batavia y 1.548 de tejido Sarga, ambos&#xd;
en escala de grises (2048 x 696 píxeles), capturadas en condiciones reales de producción.&#xd;
Tras el preprocesamiento (conversión de 16 a 8 bits y segmentación en más de 47.000&#xd;
patches), se aplicaron dos estrategias de modelado:&#xd;
1. Estrategia Convolutional Neural Network (CNN) Pura: Evaluación de&#xd;
diversas arquitecturas CNN, incluyendo Visual Geometry Group (VGG) (VGG16&#xd;
y VGG19), Inception (InceptionV3), Residual Network (ResNet) (ResNet50V2 y&#xd;
ResNet101), Extreme Inception (Xception), Densely Connected Convolutional&#xd;
Network (DenseNet) (DenseNet121) y EfficientNet (B0 y B3) para identificar el&#xd;
mejor desempeño por cada tipo de tejido.&#xd;
2. Estrategia Híbrida Autoencoder (AE) + CNN: Propuesta metodológica&#xd;
en dos etapas: en la primera fase, un AE no supervisado identificó imágenes&#xd;
potencialmente anómalas, facilitando la labor de etiquetado de los expertos y&#xd;
optimizando la eficiencia del dataset. En la segunda fase, los modelos CNN se&#xd;
entrenaron con todo el dataset, aunque los resultados se presentan sobre el subconjunto&#xd;
de imágenes anómalas, mostrando un desempeño notable en la detección de defectos.&#xd;
Los resultados, presentados en las tres publicaciones que conforman el compendio&#xd;
de la tesis doctoral, validan la hipótesis planteada: el uso de técnicas de DL es viable&#xd;
y supera a la inspección manual, proporcionando un sistema más objetivo, repetible&#xd;
y escalable. El primer artículo describe la creación y publicación del dataset curado,&#xd;
constituyendo un benchmark abierto. El segundo analiza la eficacia de distintas arquitecturas&#xd;
CNN en la detección automática de defectos. El tercero profundiza en la&#xd;
metodología híbrida AE + CNN, alcanzando métricas Area Under the Receiver Operating&#xd;
Characteristic Curve (AU-ROC) de hasta 0,97 en la referencia Sarga 43105, lo&#xd;
que evidencia la robustez del enfoque incluso en muestras complejas.&#xd;
En conjunto, este trabajo impulsa la transferencia de conocimiento al sector&#xd;
industrial y sienta las bases para la implantación de sistemas de control de calidad más&#xd;
objetivos, rápidos y automatizados, contribuyendo así al avance de la industria textil&#xd;
hacia los estándares de la Industria 4.0.</mods:abstract>
<mods:abstract>This doctoral thesis, developed within the research group GICAP at the UBU,&#xd;
focuses on the application of IA techniques, specifically DL, for quality control in the&#xd;
textile industry, with a particular emphasis on the automated detection of defects in&#xd;
Batavia and Sarga fabrics. This work is framed within the research line promoted&#xd;
by the European project DECENT, in which Inade (Textile Research, Advice and&#xd;
Development), UBU, and DIH-LEAF participate, under the second DIH-WORLD call&#xd;
of the Horizon 2020 program. This project promoted the research line and provided&#xd;
the necessary resources for dataset development, experimentation, and computer vision&#xd;
modeling.&#xd;
The general objective of this thesis is to develop, analyze, and evaluate the application&#xd;
of DL techniques for the automated detection of defects in fabrics, providing&#xd;
a more objective and consistent system than manual inspection, which can serve as a&#xd;
basis for future industrial applications.&#xd;
The methodology was designed to ensure realistic and robust results were obtained.&#xd;
The study began with the acquisition of 2,755 Batavia fabric images and 1,548 Sarga&#xd;
fabric images, both in grayscale (2048 × 696 pixels), captured under real production&#xd;
conditions. After preprocessing (conversion from 16 to 8 bits and segmentation into&#xd;
over 47,000 patches), two modeling strategies were applied:&#xd;
Pure CNN Strategy: Evaluation of various CNN architectures, including VGG&#xd;
(VGG16 and VGG19), Inception (InceptionV3), ResNet (ResNet50V2 and ResNet101),&#xd;
Xception, DenseNet (DenseNet121), and EfficientNet (B0 and B3) to identify the best&#xd;
performance for each type of fabric.&#xd;
Hybrid Autoencoder (AE) + CNN Strategy: Two-stage methodological proposal: in&#xd;
the first phase, an unsupervised AE identified potentially anomalous images, facilitating&#xd;
expert labeling and optimizing dataset efficiency. In the second phase, the CNN models&#xd;
were trained with the entire dataset, although the results were reported on a subset of&#xd;
anomalous images, showing remarkable performance in defect detection.&#xd;
The results, presented across the three publications that comprise the thesis compendium,&#xd;
validate the proposed hypothesis: the use of DL techniques is feasible and&#xd;
outperforms manual inspection, providing a more objective, repeatable, and scalable&#xd;
system. The first article describes the creation and publication of a curated dataset,&#xd;
establishing an open benchmark. The second analyzes the effectiveness of different&#xd;
CNN architectures for automated defect detection. The third focuses on the hybrid AE&#xd;
+ CNN methodology, achieving AU-ROC metrics of up to 0.97 on the Sarga 43105 reference, demonstrating the robustness of the approach even for complex samples.&#xd;
Overall, this study promotes knowledge transfer to the industrial sector and lays&#xd;
the foundation for the implementation of more objective, fast, and automated quality&#xd;
control systems, thus contributing to the advancement of the textile industry towards&#xd;
Industry 4.0 standards.</mods:abstract>
<mods:language>
<mods:languageTerm authority="rfc3066">spa</mods:languageTerm>
</mods:language>
<mods:accessCondition type="useAndReproduction">Attribution-NonCommercial-NoDerivatives 4.0 Internacional</mods:accessCondition>
<mods:subject>
<mods:topic>Visión inteligente</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Detección de defectos</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Industria textil</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Industria 4.0</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Redes neuronales convolucionales</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Control de calidad</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Autoencoder</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Intelligent vision</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Defect detection</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Textile industry</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Convolutional neural networks</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Quality control</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Industry 4.0</mods:topic>
</mods:subject>
<mods:titleInfo>
<mods:title>Visión inteligente para la detección de defectos en la industria textil</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/doctoralThesis</mods:genre>
</mods:mods>
</xmlData>
</mdWrap>
</dmdSec>
<amdSec ID="TMD_10259_11593">
<rightsMD ID="RIG_10259_11593">
<mdWrap OTHERMDTYPE="DSpaceDepositLicense" MDTYPE="OTHER" MIMETYPE="text/plain">
<binData>RWwgYXV0b3IgY29tbyDDum5pY28gdGl0dWxhciBkZSBsb3MgZGVyZWNob3MgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIGRlIGxhIG9icmEsIG8gZGlzcG9uaWVuZG8gZGUgbG9zIGRlYmlkb3MgcGVybWlzb3MgZGUgbG9zIG90cm9zIHRpdHVsYXJlcywgc2kgbG9zIGh1YmllcmEsIHkgZW4gdmlydHVkIGRlIGxvcyBkZXJlY2hvcyBxdWUgbGUgY29uZmllcmUgbGEgbGVnaXNsYWNpw7NuIHZpZ2VudGUgc29icmUgcHJvcGllZGFkIGludGVsZWN0dWFsIHkgZGVyZWNob3MgZGUgYXV0b3IsIApBVVRPUklaQSBhIGxhIFVuaXZlcnNpZGFkIGRlIEJ1cmdvcyBhIGRpZnVuZGlyLCBkZSBtYW5lcmEgZ3JhdHVpdGEsIGVsIGNvbnRlbmlkbyBkZSBsb3MgYXJjaGl2b3MgZGlnaXRhbGVzIHF1ZSBjb3JyZXNwb25kZW4gYWwgZG9jdW1lbnRvIGRlc2NyaXRvIGFudGVyaW9ybWVudGUsIGNvbiBjYXLDoWN0ZXIgbm8gZXhjbHVzaXZvIHkgZGUgbWFuZXJhIHDDumJsaWNhIGVuIGFjY2VzbyBhYmllcnRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCwgcGFyYSBsbyBxdWUgbGEgQmlibGlvdGVjYSBwcm9jZWRlcsOhIGEgYXJjaGl2YXJsb3MgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbC4gQXNpbWlzbW8gYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBkZSBCdXJnb3MgYSByZWFsaXphciBsYXMgdHJhbnNmb3JtYWNpb25lcyBuZWNlc2FyaWFzIGRlIGZvcm1hdG8sIG5vIGRlIGNvbnRlbmlkbywgcGFyYSBnYXJhbnRpemFyIGxhIHByZXNlcnZhY2nDs24geSBlbCBhY2Nlc28gZW4gZWwgZnV0dXJvLgoKRWwgYXV0b3IgZGlzcG9uZSwgZW4gdG9kbyBjYXNvLCBkZWwgZGVyZWNobyBhIHJldm9jYXIgZXN0YSBhdXRvcml6YWNpw7NuLgoKTGEgY2VzacOzbiBkZSBkZXJlY2hvcyBkZSBlc3RhIG9icmEgc2UgZW5jdWVudHJhIHN1amV0YSBhIGxhIGxlZ2lzbGFjacOzbiB2aWdlbnRlIHNvYnJlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCB5IGRlcmVjaG9zIGRlIGF1dG9yLiBTdSBkaWZ1c2nDs24gZW4gZWwgUmVwb3NpdG9yaW8gc2Vyw6EgYmFqbyBsYSBtb2RhbGlkYWQgZGUgbGljZW5jaWEgQ3JlYXRpdmUgQ29tbW9ucyBvIGVxdWl2YWxlbnRlOiByZWNvbm9jaW1pZW50byDigJMgdXNvIG5vIGNvbWVyY2lhbCDigJMgc2luIG9icmEgZGVyaXZhZGEsIHBvciBsYSBxdWUgc2UgcGVybWl0ZSBoYWNlciBjb3BpYSwgZGlzdHJpYnVpciB5IGNvbXVuaWNhciBww7pibGljYW1lbnRlIGxhIG9icmEgc2llbXByZSBxdWUgc2UgY2l0ZSBhbCBhdXRvciwgZWwgdXNvIHF1ZSBzZSBoYWdhIGRlIGVsbGEgc2VhIG5vIGNvbWVyY2lhbCB5IG5vIHNlIGNyZWVuIG9icmFzIGRlcml2YWRhcyBhIHBhcnRpciBkZSBsYSBvcmlnaW5hbC4K</binData>
</mdWrap>
</rightsMD>
</amdSec>
<amdSec ID="FO_10259_11593_1">
<techMD ID="TECH_O_10259_11593_1">
<mdWrap MDTYPE="PREMIS">
<xmlData xmlns:premis="http://www.loc.gov/standards/premis" xsi:schemaLocation="http://www.loc.gov/standards/premis http://www.loc.gov/standards/premis/PREMIS-v1-0.xsd">
<premis:premis>
<premis:object>
<premis:objectIdentifier>
<premis:objectIdentifierType>URL</premis:objectIdentifierType>
<premis:objectIdentifierValue>https://riubu.ubu.es/bitstream/10259/11593/1/Gil_Arroyo_Beatriz-Tesis.pdf</premis:objectIdentifierValue>
</premis:objectIdentifier>
<premis:objectCategory>File</premis:objectCategory>
<premis:objectCharacteristics>
<premis:fixity>
<premis:messageDigestAlgorithm>MD5</premis:messageDigestAlgorithm>
<premis:messageDigest>36a9573547297f4dd45d88d0e193107f</premis:messageDigest>
</premis:fixity>
<premis:size>14356681</premis:size>
<premis:format>
<premis:formatDesignation>
<premis:formatName>application/pdf</premis:formatName>
</premis:formatDesignation>
</premis:format>
</premis:objectCharacteristics>
<premis:originalName>Gil_Arroyo_Beatriz-Tesis.pdf</premis:originalName>
</premis:object>
</premis:premis>
</xmlData>
</mdWrap>
</techMD>
</amdSec>
<fileSec>
<fileGrp USE="ORIGINAL">
<file ID="BITSTREAM_ORIGINAL_10259_11593_1" MIMETYPE="application/pdf" SEQ="1" SIZE="14356681" CHECKSUM="36a9573547297f4dd45d88d0e193107f" CHECKSUMTYPE="MD5" ADMID="FO_10259_11593_1" GROUPID="GROUP_BITSTREAM_10259_11593_1">
<FLocat xlink:type="simple" LOCTYPE="URL" xlink:href="https://riubu.ubu.es/bitstream/10259/11593/1/Gil_Arroyo_Beatriz-Tesis.pdf"/>
</file>
</fileGrp>
</fileSec>
<structMap TYPE="LOGICAL" LABEL="DSpace Object">
<div TYPE="DSpace Object Contents" ADMID="DMD_10259_11593">
<div TYPE="DSpace BITSTREAM">
<fptr FILEID="BITSTREAM_ORIGINAL_10259_11593_1"/>
</div>
</div>
</structMap>
</mets></metadata></record></GetRecord></OAI-PMH>