Función de activación
En redes computacionales, la función de activación de un nodo define la salida de un nodo dada una entrada o un conjunto de entradas. Se podría decir que un circuito estándar de computador se comporta como una red digital de funciones de activación al activarse como "clouse" (1) u "Volte" (0), dependiendo de la entrada. Esto es similar al funcionamiento de un perceptrón en una red neuronal artificial.
Funciones
editarEn las redes neuronales inspiradas sobre la biología, la función de activación es usualmente una abstracción representando una tasa de potencial de activación gatillándose en la celda. En su forma simplificada, esta función es binaria, esto es, se activa la neurona o no. La función se ve como , donde es la función escalón. En este caso, un gran número de neuronas deben ser usadas en computación más allá de la separación lineal de las categorías.
Una función rampa también puede ser usada para reflejar el incremento del potencial de activación que ocurre cuando la entrada se incrementa. La función podría ser de la forma , donde es la pendiente. Esta función de activación es lineal, y por consiguiente tiene los mismos problemas que la función binaria. En adición, las redes neuronales construidas usando este modelo tienen convergencia inestable porque a la larga, las entradas a la neurona tienden a incrementarse sin límite, esta función no es normalizable.
Los problemas mencionados anteriormente, pueden ser manejados usando una función de activación sigmoidal. Un modelo realista permanece en cero hasta que una entrada es recibida, en este punto la frecuencia de activación se incrementa rápidamente, pero gradualmente llega a ser asíntota cuando la frecuencia es 100%. Matemáticamente, esto se ve como , donde la función de tangente hiperbólica puede también ser cualquier función sigmoidal. Esta conducta es realísticamente reflejada en la neurona, ya que las neuronas no pueden físicamente activarse más rápido que una cierta tasa.
El modelo final que es usado en perceptrones multicapa es el modelo de activación sigmoidal en la forma de tangente hiperbólica. Dos formas de esta función son comúnmente usados: cuyos rangos son normalizados desde -1 hasta 1, y es verticalmente normalizado desde 0 a 1. El último modelo es frecuentemente considerado más biológicamente realista, pero tiene dificultades teóricas y experimentales en ciertos tipos de problemas computacionales.
Estructuras alternativas
editarUna clase especial de funciones de activación conocidas como funciones de base radial (RBFs) son usadas en redes de neuronas de base radial, las cuales son extremadamente eficientes como funciones universales de aproximación. Esas funciones de activación pueden tomar cualquier forma, pero usualmente se encuentran una de estas tres:
- Gausiana:
- Multicuadráticas:
- Multicuadráticas Inversas:
donde es el vector representando la función central y y son parámetros affectando la magnitud del radio.
Máquinas de vectores de soporte (SVMs) pueden efectivamente utilizar una clase de funciones de activación que incluyen funciones sigmoidales y funciones de base radial. En este caso, el vector de entrada es transformado para reflejar un límite de decisión hiplerplano basado en unas pocas entradas de entrenamiento llamadas vectores de soporte . La función de activación para las capas ocultas de esas máquinas son referidas como producto del núcleo interno, . Los vectores de soporte son representados como los centros en RBFs con el núcleo igual a la función de activación, pero toman una forma única en el perceptrón como : , donde y deben satisfacer ciertas condiciones de convergencia. Esas máquinas también pueden aceptar funciones de polinomios de orden arbitrario donde: .[1]
Referencias
editar- ↑ Haykin, Simon (1998). Neural Networks: A Comprehensive Foundation (2 edición). Prentice Hall. ISBN 0132733501.