Google+ Seguidores

jueves, 12 de julio de 2018

Introducción a las Redes Neuronales - Parte #1: Elementos básicos de una Red Neuronal

Segundo capitulo de la guía "introducción a las Redes Neuronales". En este capitulo 1.2 de la parte #1, veremos cuales son los elementos básicos que componen a una Red Neuronal.

1.2 Elementos básicos de una Red Neuronal


Las redes neuronales están interconectadas por 3 capas. La primera es la capa de entrada, la segunda son las capas ocultas, y por ultimo la capa de salida. Es importante saber, que las capas ocultas pueden estar constituidas por todas las capas que sean necesarias. Hay redes neuronales que utilizan cientos de capas ocultas. Claro, es un proceso más costoso, pero veremos cuales son los beneficios de esto más adelante.

Ahora les describiré las funciones que determinan una neurona y su proceso: función de entrada, función de activación y la función de salida.

Función de entrada:

La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el nombre de entrada global. Esto nos genera un problema, como vamos a combinar todas estas simples entradas (ini1, ini2, ...) dentro de la entrada global (gin)?

Esto lo lograremos a través de la función de entrada, la cual se calcula a partir del vector entrada. La función de entrada puede describirse matemáticamente de la siguiente manera:


donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, productoria, etc.), n al número de entradas a la neurona Ni y wi al peso.

Los valores de entrada se multiplican por los pesos anteriormente ingresados a la neurona. Por consiguiente, los pesos que generalmente no están restringidos cambian la medida de influencia que tienen los valores de entrada. Es decir, que permiten que un gran valor de entrada tenga solamente una pequeña influencia, si estos son lo suficientemente pequeños. 

Resultado de imagen para redes neuronales

En la imagen anterior podemos ver los elementos de una red neuronal. x = vector de entrada, x1 = entrada número 1 a la neurona; w(1) = peso correspondiente a x1; x2 = entrada número 2 a la neurona; w(2) = peso correspondiente a x2; y Y = salida de la neurona Ni. El conjunto de todas las n entradas ini = (ini1, ini2, ..., inin) es comúnmente llamado “vector entrada”.

Algunas de las funciones de entrada más comúnmente utilizadas y conocidas son: 

1) Sumatoria de las entradas pesadas: es la suma de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos.


2) Productoria de las entradas pesadas: es el producto de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos.


3) Máximo de las entradas pesadas: solamente toma en consideración el valor de entrada más fuerte, previamente multiplicado por su peso correspondiente.


Función de Activación

La función de activación calcula el estado de una neuronal; transformando la entrada global en un valor de activación, cuyo rango normalmente va de "0 a 1" o de "-1 a 0". El valor sera "0 o -1" para las neuronas inactivas y "1" para las neuronas activas.

La función activación, es una función de la entrada global (gini) menos el umbral (Θi). A continuación describiré las 3 funciones de activación más comunes.

1) Función Lineal:


Los valores de salida obtenidos por medio de esta función de activación serán: a·(gini - Θi), cuando el argumento de (gini - Θi) esté comprendido dentro del rango (-1/a, 1/a). Por encima o por debajo de esta zona se fija la salida en 1 o –1, respectivamente.  

Básicamente la función de activación se puede describir de la siguiente manera:

t(x) = 0  si x< T

t(x) = 1  si x≥ T

Donde  T  es el nivel de activación elegido.

2) Función sigmoide:
Los valores de salida que proporciona esta función están comprendidos dentro de un rango que va de 0 a 1. Al modificar el valor de g se ve afectada la pendiente de la función de activación. 


3) Función Tangente hiperbólica
Los valores de salida de la función tangente hiperbólica están comprendidos dentro de un rango que va de -1 a 1. Al modificar el valor de g se ve afectada la pendiente de la función de activación. 

¿Por que es importante saber si una neurona esta activada o no? Si una neurona esta activada, pasara los datos que recibe a la siguiente neurona de la siguiente capa, de lo contrario, esta no enviara ningún tipo de información.

De hecho es muy parecido al proceso biológico de nuestras neuronas. Las neuronas pueden estar activadas (excitadas) o inactivas (No excitadas).

3) Función de salida
Por ultimo, tenemos a la función de salida. Esta función devuelve la salida de la neurona, por lo que la función de salida determina el valor que se transfiere a las neuronas vinculadas. Si la función de activación está por debajo de un umbral determinado, ninguna salida se pasa a la neurona subsiguiente. Normalmente, no cualquier valor es permitido como una entrada para una neurona, por lo tanto, los valores de salida están comprendidos en el rango [0, 1] o [-1, 1]. También pueden ser binarios {0, 1} o {-1, 1}. 

Dos de las funciones de salida más comunes son:  
  • Ninguna: este es el tipo de función más sencillo, tal que la salida es la misma que la entrada. Es también llamada función identidad.
  •  Binaria: {0,1}


Hasta aquí llegaremos hoy. Se que es un tema un poco complicado de entender. Así que si tienes dudas, las responderé con mucho gusto.

Mi nombre es Luis, y fue un placer compartir mis conocimientos con todos ustedes :D.

3 comentarios :
Write comentarios
  1. que bien espero la próxima publicación

    ResponderEliminar
  2. A la espera del próximo artículo. Hace tiempo esperaba algo así. Estaba estudiando redes neuronales en un par de libros, aunque artículos así es lo mejor por su sencillez que, sin embargo, no dejan de lado conceptos importantes. Sigo el blog de hace unos 6 meses, y a verdad es que hacen un gran trabajo en cada artículo publicado. Sigan así. Muchas gracias!!

    ResponderEliminar
  3. Sencillo, y muy provechoso el artículo

    ResponderEliminar

Tu comentario es importante y nos motiva a seguir escribiendo...

Powered by Blogger .