Supermasks and a good initialization are all you need

dc.contributor.advisorSoto Arriaza, Álvaro Marcelo
dc.contributor.authorRencoret Domínguez, Francisco
dc.contributor.otherPontificia Universidad Católica de Chile. Escuela de Ingeniería
dc.date.accessioned2021-01-14T10:57:40Z
dc.date.available2021-01-14T10:57:40Z
dc.date.issued2020
dc.descriptionTesis (Master of Science in Engineering)--Pontificia Universidad Católica de Chile, 2020
dc.description.abstractLos modelos de aprendizaje profundo han mostrado significativas mejoras en las tareas de visión por computador, aunque generalmente optimizando redes neuronales altamente parametrizadas. Para mejorar esto, la hipótesis de Lottery Ticket (Frankle & Carbin, 2019) establece que una red neuronal densa contiene una subred de modo que, cuando se entrena de forma aislada, puede igualar el rendimiento de la red completa original. El entrenamiento de Supermask (Zhou et al., 2019) es una forma eficiente de obtener un Lottery Ticket, pero desafortunadamente, aún enfrenta problemas de rendimiento. En el entrenamiento de Supermask, el valor de los pesos iniciales es clave ya que nunca se actualizan. Nuestra hipótesis es que, al agregar conocimiento previo de los datos a la inicialización de los pesos, el entrenamiento de Supermask encontraría una subred con mejor rendimiento en los datos de prueba que la inicialización aleatoria. En esta tesis, proponemos un método novedoso para inicializar los pesos de un modelo bajo el entrenamiento de Supermask. Nos referimos al método propuesto como PatchesInit. El método inicializa los pesos con patrones encontrados en los datos de entrenamiento, aproximándose así a lo que deberían aprender en un esquema de entrenamiento regular. Para evaluar PatchesInit, entrenamos varias ConvNets, con diferentes configuraciones de Supermask, sobre los conjuntos de datos CIFAR-10, CIFAR-100 y TinyImagenet- 200. Los resultados muestran que PatchesInit es una estrategia de inicialización eficaz, mejorando significativamente el rendimiento de la inicialización aleatoria. Para ConvNets de poca profundidad, el método propuesto supera a la inicialización aleatoria bajo diferentes niveles de weight pruning. Por otro lado, PatchesInit enfrenta problemas para inicializar los pesos de manera efectiva para redes más profundas, por lo que proponemos una variante que sí encuentra subredes con mejor rendimiento que la inicialización aleatoria.
dc.format.extentxii, 54 páginas
dc.identifier.doi10.7764/tesisUC/ING/50198
dc.identifier.urihttps://doi.org/10.7764/tesisUC/ING/50198
dc.identifier.urihttps://repositorio.uc.cl/handle/11534/50198
dc.language.isoen
dc.nota.accesoContenido completo
dc.rightsacceso abierto
dc.subject.ddc006.31
dc.subject.deweyCiencias de la computaciónes_ES
dc.subject.otherAprendizaje de máquinaes_ES
dc.subject.otherRedes neurales (Ciencia de la computación)es_ES
dc.titleSupermasks and a good initialization are all you needes_ES
dc.typetesis de maestría
sipa.codpersvinculados73678
sipa.codpersvinculados232479
Files
Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
TESIS_FRencoret_Firma Final.pdf
Size:
2.08 MB
Format:
Adobe Portable Document Format
Description:
License bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.98 KB
Format:
Item-specific license agreed upon to submission
Description: