sábado, 30 de octubre de 2010

Algoritmo de entrenamiento del perceptron

Como dijimos antes, el perceptron modificando los pesos sinapticos de las entradas es capaz de aprender a dar respuesta según el patrón de entrada que recibe. Para este objetivo existen los algoritmos de entrenamiento.
Básicamente la función de estos algoritmos es el de reducir el error de salida a cada "época" ( una época es un solo ciclo de entrenamiento, ya que en el perceptron el proceso se debe repetir hasta que el error sea mínimo ), de este modo, pasandole ciertas entradas el perceptron da una salida. Sin embargo para el objetivo del entrenamiento esta respuesta puede varía de la respuesta que queremos recibir. De este modo se calcula el error:


Donde:
  • D es la salida deseada
  • S es la salida recibida del perceptron
  • e es el error generado
De este modo la modificacion de los pesos sinapticos sigue la siguiente ley:




De este modo, si la salida obtenida es mas grande que la salida deseada, se tiene que la variación de los pesos de las entradas que dan un valor significativo se hace negativa, de este modo los pesos sinapticos bajan su valor y viceversa. En la formula de la variación de los pesos, k es un coeficiente llamado "taza de aprendizaje". Este coeficiente debe adoptar valores entre 0 y 1, pero se prefieren valores bajos de este coeficiente para evitar oscilaciones.
Este cambio de los pesos debe ser aplicado a todas las entradas del perceptron.

No hay comentarios:

Publicar un comentario