Logo Studenta

Taller RNA

¡Este material tiene más páginas!

Vista previa del material en texto

TALLER DE REDES NEURONALES ARTIFICIALES 
 
 
 
OBJETIVOS. 
Objetivo General: 
Hacer uso de un perceptrón multicapa y de una Red de base radial en WEKA en 
análisis predictivo de datos. 
 
Objetivos Específicos: 
● Manejar la herramienta WEKA para crear distintos modelos de perceptrón 
multicapas para la predicción de los precios en distintos maíces. 
● Aproximar una función hermite haciendo uso de una red de bases radial. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
INTRODUCCIÓN. 
 
En el presente trabajo realizaremos distintos modelos predictivos usando Perceptrón 
Multicapa en la herramienta WEKA, donde buscaremos predecir los precios de dos 
tipos de maíz haciendo uso de Redes Neuronales Artificiales. De igual manera, 
trabajaremos en cómo usar redes neuronales para la aproximación a un polinomio 
Hermite. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Taller 
1. Se entregan dos archivos de datos: los archivos de Excel (Ojo no están en formato 
arff) Precios_IntMaizBlanco y Precios_IntMaizAmarillo, como su nombre lo indica, son 
archivos que contienen (día a día) durante 10 meses los valores de precios 
internacionales para cada tipo de maíz. Elabore un Perceptrón Multicapa (usando el 
algoritmo específico en WEKA) que sea capaz de predecir dichos valores. Para cada 
tipo de maíz se pide: 
 
a) Graficar las curvas de aprendizaje para el error versus distinto número de 
neuronas en la capa oculta. 
 
En este punto tomaremos los siguientes números de neuronas en la capa 
oculta para analizar: 3, 9, 15 y 21. Se tomará el 70% de los datos para 
aprendizaje y el otro 30% para pruebas. 
 
Para el tipo de Maíz blanco, el análisis es: 
 
Error per Epoch N. Neuronas 
0.0600748 3 
0.0377551 9 
0.0588025 15 
0.0587462 21 
 
 
 
 
Cómo logramos observar en la gráfica, donde se obtuvo una mayor precisión 
fue cuando el número de neuronas en la capa oculta es igual a 9, ya que esta 
tuvo el menor número de error para las épocas. 
 
 
Para el tipo de Maíz amarillo, el analisis es: 
 
Error per Epoch N. Neuronas 
0.1115112 3 
0.1211994 9 
0.1214974 15 
0.1217147 21 
 
 
Podemos analizar la gráfica y vemos que al tener 3 neuronas el modelo es 
preciso. En cambio, si el número de neuronas aumenta vemos como el error 
incrementa, lo que quiere decir que no le beneficia al modelo debido a que 
tenderá a equivocarse al tener mayor error. 
 
b) Graficar las curvas de aprendizaje error versus distintas razones de 
aprendizaje. 
 
Para el tipo de maíz blanco utilizaremos 9 neuronas en la capa oculta dado 
que obtuvo una mayor precisión. Se realiza las pruebas con las siguientes 
razones de aprendizaje: 
 
Error per Epoch Razón de aprendizaje 
0.0520052 0.1 
0.0372248 0.2 
0.0377551 0.3 
0.0648269 0.4 
 
 
Dado que en la anterior gráfica al tener 9 neuronas en la capa oculta con un 
0.3 de razón de aprendizaje obtuvo una mayor precisión, logramos observar 
que en esta gráfica al variar esta razón podemos mejorar aún más esta 
precisión como bajandola a 0.2 o también se puede empeorar como las demás 
variantes. 
 
Para el tipo de maíz amarillo utilizaremos 3 neuronas en la capa oculta dado 
que obtuvo una mayor precisión. Se realiza las pruebas con las siguientes 
razones de aprendizaje: 
 
 
Error per Epoch Razón de aprendizaje 
0.0944066 0.1 
0.1005511 0.2 
0.1115112 0.3 
0.1266758 0.4 
 
 
Dada la gráfica podemos deducir que, en este modelo a menos razón de 
aprendizaje, el error será menor y esto indica que será más preciso la RNA. 
Para 3 neuronas en la capa oculta y una razón de 0.1 resulta ser la más 
eficiente para este modelo de predicción. 
 
c) Obtener una gráfica donde se compare los valores reales vs valores 
predichos por la RNA. 
 
Para el tipo de maíz blanco utilizaremos 9 neuronas en la capa oculta con una 
razón de aprendizaje de 0.2 dado que obtuvo una mayor precisión en los 
resultados anteriores. 
 
 
actual predicted 
146.6 155,576 
148.4 147,689 
162.4 163,449 
191.9 187,443 
190 189,006 
174.4 174,123 
148.4 147,788 
187.4 189,516 
192.1 189,447 
197 183,803 
156.9 148,476 
191.3 189.18 
183.5 189.47 
153.5 152,609 
146.6 153.32 
187.4 189,522 
185.6 171,777 
153.5 148,511 
191.9 187,943 
148.4 147,807 
189.8 189,414 
197.8 188,103 
192.9 186.82 
183.5 183,331 
142.9 160,815 
183.3 189,522 
191.3 184,365 
155.1 148,805 
162.4 168,928 
158.5 148,146 
191.3 189,307 
187.4 189,523 
154.7 149,425 
199 187,166 
199 187,475 
192.1 189,416 
166.5 147,991 
162.4 75,286 
183.5 189,478 
158.5 148,123 
192.5 186,998 
204.1 185,831 
185.6 173,499 
156.9 148,352 
185.6 189,339 
195.7 189,482 
185.6 189,293 
190 189,063 
182.1 178.5 
166.5 148.1 
192.1 189,357 
186.8 189,242 
182.1 176,543 
155.1 148,858 
189.8 189,444 
148.6 149,984 
199.6 188,957 
187.4 189,513 
166.5 148,078 
174.4 178,121 
183.5 189,485 
145.9 147,847 
146.6 156,118 
185.6 170,863 
158.5 148,269 
191.3 185.76 
185.6 174,309 
189.4 188,827 
154.7 149,855 
195.7 189,472 
 
 
 
 
 
En la gráfica se puede observar como en la mayoría de las predicciones 
estuvieron cercanas a los precios actuales, en varias predicciones los valores 
estuvieron muy cercanos con una diferencia mínima y solo en una predicción 
se observa que se aleja bastante al precio actual. Lo cual se puede decir que 
para este modelo, existe la posibilidad que tenga una o unas pocas más 
predicciones que se alejaran al valor actual 
 
Para el tipo de Maíz blanco utilizaremos 3 neuronas en la capa oculta con 
una razón de aprendizaje de 0.1 dado que obtuvo una mayor precisión en 
los resultados anteriores. 
 
 
Actual Predicted 
145.4 147.327 
145.3 152.97 
136.3 153.513 
159.5 156.297 
146.8 136.564 
143.4 149.113 
164.2 158.839 
130.8 131.297 
150.3 146.87 
132.1 132.012 
145.4 143.859 
138.7 134.165 
163.6 157.747 
159.2 138.9 
135.3 139.299 
141.9 150.189 
146.8 144.789 
145.1 136.793 
158.3 159.164 
130.2 133.367 
164.2 158.171 
136.1 146.641 
163.5 158.793 
144.6 136.676 
127.2 132.46 
147.6 135.691 
143.5 149.548 
159.1 158.924 
133.7 133.222 
157.3 159.13 
156.1 133.621 
152.9 155.165 
164.2 157.926 
156.5 156.675 
148.2 143.162 
142.1 145.95 
160.7 158.958 
136.3 153.863 
136.8 131.355 
136.3 154.035 
135.3 136.115 
157.3 159.114 
151.6 137.258 
159 159.141 
143.4 148.894 
148 142.468 
146.8 145.022 
145.3 152.021 
126 134.898 
128.9 131.224 
171 158.581 
157.5 159.112 
147 135.282 
132.3 133.826 
162.3 158.846 
129.4 132.351 
146.1 151.021 
171 158.693 
164.2 158.882 
157.3 157.248 
161.2 138.688 
135.4 133.685 
145 143.626 
159.3 159.074 
143.5 149.331 
125 132.096 
150 144.091 
133.1 133.969 
 
El gráfico muestra que los valores predichos se aproximan en general a los 
valores reales, pero sin embargo hay grandes saltos en algunos resultados, lo 
que indica que la precisión del modelo de predicción no es suficiente, pero es 
evidente que la situación es mejor. 
 
d) Existe alguna diferencia de resultados (mayor coherencia o exactitud) que 
favorezcan a algún tipo de maíz en especial? ¿Por qué?. 
 
R. Para el tipo de maíz blanco se puede observar que obtuvo una mayor 
exactitud de las predicciones que el tipo de maiz amarillo. la razón de esto 
puede darse por diferentes razones, una de ellas podría ser que el conjunto de 
datos del tipo de maíz blanco posee más datos que el tipo de maiz amarillo, 
permitiendo asi tener mas datos de entrenamiento y de prueba. 
 
 
Aproxime el polinomio de Hermite: 𝒇(𝒙) = 𝟏. 𝟏 ∗ (𝟏 − 𝒙 + 𝟐𝒙𝟐) ∗ 𝒆
(𝟏/𝟐) 𝒙𝟐
 , 
usando una RBF ( Radial Basis Function). 
Pasos a seguir: 
Generar las 240 muestras de forma aleatoria con distribución en el intervalo [-4,4] y 
se normalizaron losdatos en el intervalo [0,1]. Usamos el 16.6% de los datos que 
equivale a 40 muestras para el entrenamiento y las 200 restantes para la validación. 
Los datos generados están generados respecto a su valor x y la salida de su resultado 
utilizando la expresión del polinomio. 
 
Las arquitecturas de red que se han utilizado paras las pruebas en el dominio de 
Hermite son las siguientes: 
Arquitectura 1: 
● Capa de entrada: 1 neurona. 
● Capa oculta 1: 2 neurona. 
● Capa de salida: 1 neurona. 
 
En esta arquitectura podemos observar que la predicción es imprecisa cuando 
hay dos neuronas en la capa oculta. Otro análisis que se hace es el aspecto 
de la gráfica el cual se aprecia de esta forma debido a la aleatoriedad de los 
datos y su respectivo valor sobre el polinomio. 
 
El error para esta arquitectura ha sido: 0.0406708 
 
Arquitectura 2: 
● Capa de entrada: 1 neurona. 
● Capa oculta 1: 5 neuronas. 
● Capa de salida: 1 neurona. 
 
 
En esta Arquitectura es casi imperceptible los cambios en la gráfica, pero está 
resulta ser más precisa ya que está tendiendo a seguir la línea de los datos 
reales. 
 
El error que resultó es: 0.0400777 
 
 
Arquitectura 3: 
● Capa de entrada: 1 neurona. 
● Capa oculta 1: 10 neuronas. 
● Capa de salida: 1 neurona. 
 
 
El error en está Arquitectura con 10 neuronas en la capa oculta aumentó a 
0.444339 
lo que quiere decir que en este modelo ya las predicciones fueron más 
imprecisas. 
 
Arquitectura 4: 
● Capa de entrada: 1 neurona. 
● Capa oculta 1: 15 neuronas. 
● Capa de salida: 1 neurona. 
 
 
Teniendo ya 15 neuronas en la capa oculta el resultado de las predicciones 
son más imprecisas, porque el error aumentó a: 0.0513883 
 
Graficando los errores de las distintas arquitectura podemos observar:

Continuar navegando