Logo Studenta

Aprendizaje no Supervisado

¡Estudia con miles de materiales!

Vista previa del material en texto

Aprendizaje no Supervisado
Autoorganización.
Autoorganización es el proceso en el cual, por medio de interacciones locales, se obtiene ordenamiento global.
El aprendizaje no supervisado puede ser aplicado solo si hay redundancia presente en el input.
Redundancia: diferencia entre la máxima cantidad de información que puede ser enviada por el canal de entrada y el contenido de información actual del canal.
Capacidades
Las redes neuronales artificiales con aprendizaje no supervisado pueden realizar lo siguiente:
· Análisis de similaridad. Una neurona puede decirnos exactamente cuan similar es un nuevo patrón de entrada con respecto a un patrón típico que ha sido visto antes.
· Análisis de componente principal. Extendiendo lo anterior a varias neuronas, se puede desarrollar un conjunto de ejes coordenados, por medio del cual se aplica este análisis. Cuando se proyectan los patrones de entrada sobre estos ejes, la discrepancia entre el conjunto inicial y el proyectado será tan pequeña como sea posible.
· Agrupación (clustering). Un conjunto de neuronas con salidas binarias, de las cuales solo una está activa en cada instante, nos puede decir a qué categoria pertenece la entrada actual.
· Prototipado. La salida de la red es un ejemplo prototípico de la correspondiente categoría.
· Codificación. La salida de la red puede representar versiones codificadas del patrón de entrada usando un menor nú-mero de símbolos (p.ej. bits) tratando de retener el mayor detalle posible de la entrada.
· Mapas topográficos. Si las neuronas tienen un ordenamiento geométrico fijo (p.ej. rejilla bidimensional) y si hay solo una neurona activa en cada instante, diferentes patrones de entrada pueden activar diferentes neuronas y patrones de en-trada similares pueden activar neuronas vecinas.
Aprendizaje Hebbiano No Supervisado
Por simplicidad consideremos una neurona. Asumamos que se tiene un conjunto de vectores de entrada {I} obtenido de una distribución de entrada P(I). En cada instante un vector I se obtiene de la distribución P(I) y se presenta a la red. Después de un tiempo la red nos podrá decir en qué grado, cierto patrón de entrada forma parte de la distribución de entrada.
Regla de Aprendizaje de Oja
Introduce un término de decaimiento de peso: s Wj . Esto da como resultado que cada Wj  converja a un valor final.
D Wj = hs (Ii - s Wj)
El vector de pesos W =[Wj] converge a un vector de longitud unidad cuya dirección corresponde al maximo vector principal (eigenvector) de la matriz de correlación.

Continuar navegando

Otros materiales