martes, 2 de noviembre de 2010

Perceptron multicapa ( multilayer perceptron: MLP )

Como dijimos anteriormente, el perceptron multicapa ( MLP de ahora en adelante ) ha sido una mejora en la arquitectura del perceptron simple. El MLP es capaz de resolver problemas que no son linealmente separables ( como la funcion logica XOR )
El MLP esta formado de multiples capas ( siempre mas de tres ) las cuales se dividen en:
  • Capa de entrada: es donde entra la informacion. En esta capa no se realiza ningun procesamiento.
  • Capa oculta: puede ser una o mas capas, y realizan parte del proceso para enviarlo a la salida.
  • Capa de salida: ultima capa del MLP, es donde se devuelve el resultado.

Cada una de estas capas puede estar formada por mas perceptrones, las cuales salidas estan conectadas unicamente con las capas seguientes, nunca entre la misma capa o una capa anterior. La funcion de transferencia de las salidas de los perceptrones deben ser derivables. Como estamos usando como funcion de transferencia la suncion sigmoide, tenemos una funcion derivable en todo el intervalo real, aunque no puede ser una funcion lineal.
El MLP tiene un algoritmo un poco mas complejo de entrenamiento que el del perceptron simple. Este algoritmo es denomidado BP ( del ingles back propagation, o retropropagacion ).
Como mejora del simple perceptron, el MLP puede emular cualquier funcion continua.
Uno de los problemas que pueda causar este tipo de redes neuronales es el hecho que no esta determinado el numero de capas o neuronas por capa en las capas ocultas. Esto solo se puede determinar mediante la experiencia, pero como regla general:
Si la red no logra aprender un determinado proceso se aumentan neuronas.
Si la red pierde capacidad de generalizacion, se quitan neuronas.
Otro problema en algunos casos seria el hecho que la cantidad de pesos sinapticos de actualizar por cada epoca se vuelve bastante elevado, haciendo que el tiempo de entrenamiento se incremente.

No hay comentarios:

Publicar un comentario