Make your own free website on Tripod.com
Indice

Unidad de Proceso

Peso Sinaptico

Neta

Función de Transferencia

Regla De Aprendizaje

Niveles De Neuronas

Formas de Conexión

Aplicaciones

Referencias


Parte 1
 
Redes Neuronales
INTRODUCCION Y CONCEPTOS BASICOS (Parte 2)

LA NEURONA ARTIFICIAL Y SUS ELEMENTOS.

Si se tienen N unidades (neuronas), ordenadas arbitrariamente y se puede designar la j-ésima unidad como Uj. Su trabajo es simple y único, y consiste en recibir las entradas de las células vecinas y calcular un valor de salida, el cual es enviado a todas las células restantes.

Neta 
Figura No. 1 Esquema de una Neurona Artificial con sus principales elementos.

PESO SINAPTICO.

Las conexiones que unen a las neuronas de una RNA tienen asociado un peso, que es el que hace que la red adquiera un conocimiento. Considerando yi como el valor de salida de la neurona i en un instante dado, dicha señal es transmitida desde la neurona i a la j pero dicha señal es modificada por el valor del peso de la conexión entre las neuronas en cuestión. La nomenclatura para el peso sinaptico entre la neurona j y la neurona i es Wji. El primer subindice (j) indica la neurona o unidad hacia donde va la conexión. El segundo subindice (i) indica la neurona o unidad desde donde proviene la conexión. Ver Figura 1.

ENTRADA NETA

Una neurona o unidad de procesamiento se ve afectada por las salidas de las neuronas con las cuales ella esta conectada. El efecto total de las salidas de estas neuronas reflejado en la unidad de procesamiento que se esté analizando se conoce como neta.
La neta se puede ver como suma de los efectos de las salidas a las cuales ella está conectada. La manera como se calcula la neta se puede observae en la Ecuación 1.

Neta 
Ecuación 1 Cálculo de la neta de una neurona.


FUNCION DE ACTIVACIÓN

Entre la unidades o neuronas que forman una red neuronal artificial existe un conjunto de conexiones que las unen. Cada unidad transmite señales a aquellas que están conectadas a su salida. Asociada con cada unidad Uj hay una función de activación (Fact), que transforma la entrada neta que la unidad presenta como resultado de estar conectada con otras unidades que le suministran información, en el valor de salida Yj.

Función de Activación 
Ecuación 2. Calculo de la salida evaluando la neta en la función de Activación.

Entre las funciones de activación más utilizadas se tienen:
Función de Activación Lineal
Lineal 
Figura 2 Función de Activación Lineal con su expresión matemática.

Función de Activación Sigmoidal
Sigmoidal 
Figura 3 Función de Activación Sigmoidal con su expresión matemática.

Función de Activación Sigmoidal Bipolar o Tangente Sigmoidal
Sigmoidal Bipolar 
Figura 4 Función de Activación Sigmoidal Bipolar con su expresión matemática.

Función de Activación Escalón
Escalón 
Figura 5 Función de Activación Escalón con su expresión matemática.


REGLA DE APRENDIZAJE

Aprendizaje se puede definir como: La modificación del comportamiento inducido por la interacción con el entorno y como resultado de experiencias conducentes al establecimiento de nuevos modelos de respuestas ante estímulos externos.
Biológicamente, se suele aceptar que la información memorizada en el cerebro está más relacionada con los valores sinápticos de las conexiones entre las neuronas que con ellas mismas; es decir, el conocimiento se encuentra en las sinapsis. En el caso de las redes neuronales artificiales, se puede considerar que el conocimiento se encuentra representado en los pesos de las conexiones entre las neuronas. Todo proceso de aprendizaje implica cierto número de cambios en estas conexiones. En realidad se puede decir que se aprende modificando los pesos de la red.

NIVELES O CAPAS DE NEURONAS

La distribución de neuronas dentro de una red se realiza formando niveles o capas de un número de neuronas determinado, donde se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente ( que puede ser otra capa de neuronas ) y cuyas salidas se dirigen al mismo destino ( que puede ser otra capa de neuronas ).
Se pueden distinguir tres tipos de capas:

Capa de Entrada
Es la capa que recibe directamente la información proveniente de las fuentes externas de la red

Capa Oculta
Son internas a la red y no tiene contacto directo con el exterior. El número de niveles ocultos puede estar entre cero y un número elevado. Las neuronas de la capa oculta pueden estar interconectadas de diferentes maneras, lo que determina, junto con su número, las distintas tipologías de redes neuronales.

Capa de Salida
Transfieren información de la red hacia el exterior.

FORMAS DE CONEXIÓN ENTRE NEURONAS

La conectividad entre los nodos de una red neuronal está relacionada con la forma en que las salidas de las neuronas están canalizadas para convertirse en entradas de otras neuronas. La señal de salida de un nodo puede ser una entrada de otro elemento de proceso, o incluso ser una entrada de su propia salida (conexión autorrecurrente).

Cuando ninguna salida de la neurona es entrada de neuronas del mismo nivel o de niveles precedente, la red se describe como de propagación hacia adelante. Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles previos o del mismo nivel, incluyéndose ellas mismas, la red es de propagación hacia atrás.

Clasificación  Figura 6 Clasificación de las Redes Neuronales de Acuerdo a su Conectividad.

1 : Radial Basis Function 2 : Self Organizing Map 3 : Adaptive Resonance Theory

CAMPO DE APLICACION

Las Redes neuronales artificiales son interesantes para una gran cantidad de personas de diferentes áreas:

  • Científicos de la computación que quieren averiguar sobre las propiedades del procesamiento de información no-simbólica con una red neuronal y sobre sistemas de aprendizaje en general.

  • Estadísticos utilizan redes neuronales como modelos de clasificación y regresión no lineal flexible

  • Ingenieros de varias especialidades se aprovechan de las capacidades de redes neuronales en muchas áreas, como procesamiento de señales y control automático

  • Los científicos cognoscitivos ven redes nerviosas como un posible aparato para describir modelos de pensamiento y conciencia (función cerebral de alto-nivel).

  • Neuro-fisiólogos utilizan redes neuronales para describir y explorar función cerebrales de medio-nivel (memoria del ej., sistema sensorial y motriz).

  • Físicos usan redes neuronales para modelar fenómenos en mecánica estadística y para muchas otras tareas.

  • Biólogos utilizan Redes Neuronales para interpretar sucesiones del nucleotide.

  • Filósofos y otras personas también pueden ser interesadas en Redes Nerviosas por las varias razones.

Las RNA con su capacidad para deducir un significado desde datos complicados o imprecisos, pueden ser utilizadas para detectar patrones o detectar una tendencia que es muy compleja de hallar por una persona con modelos determísticos o por otras técnicas computacionales tradicionales. Una red entrenada puede ser vista como un experto en el manejo de la información que se le ha dado para analizar. Este experto puede ser utilizado para proporcionar proyecciones ante nuevas situaciones de interés.
Entre las características y ventajas representativas de las RNAs se tienen:

1. Paralelismo masivo: el procesamiento de la información es realizado por un número elevado de procesadores simples y veloces (neuronas) cuya potencia de cómputo se centra en el alto nivel de conectividad, distribuyendo de esta manera la representación y el procesamiento de los datos.

2. Capacidad de aprendizaje y generalización: la RNA adquiere el conocimiento de los datos analizados en el problema para modelar una situación un proceso. Además, a partir de la información entregada (finita) está en capacidad de inferir o analizar con acierto datos no presentados en la fase de aprendizaje.

3. Auto organización: Una RNA puede crear su propia organización o representación de la información que es recibida durante la etapa de aprendizaje y a partir de una estructura inicial evolucionar a una nueva y más apropiada para la solución del problema.

4. Operación en tiempo real : Los cálculos en una RNA pueden ser realizados en paralelo. El diseño y fabricación de dispositivos en hardware especiales para tomar ventaja de esta capacidad, garantizan el diseño de aplicaciones complejas en tiempo real.

5. Tolerancia a fallas por la redundancia de la información: La destrucción parcial de un RNA ocasiona la correspondiente degradación del funcionamiento de la red. Sin embargo, algunas capacidades de la red pueden ser conservadas a pesar de tenerse un daño grave en la misma.

Los computadores digitales actuales superan al hombre en su capacidad de cálculo numérico y el manejo de símbolos relacionales. Sin embargo, el hombre puede solucionar problemas mucho más complejos de percepción (por ejemplo, reconocer a un amigo entre un tumulto desde un simple vistazo de su cara o al escuchar su voz, incluso por el modo de caminar; definir la habitabilidad de un aula a partir de sensaciones de temperatura, ruido, humedad, iluminación, etc.) a muy altas velocidades y sin necesidad de concebir un complejo modelo matemático o computacional. La respuesta está en la arquitectura del sistema neuronal biológico que es completamente diferente a la arquitectura del computador tradicional von Neumann, como se indicó en la Tabla 1. Estas diferencias, le brindan un factor de diferenciación y aumento del desempeño a las RNA en aplicaciones como :

  • Reconocimiento y Clasificación de Patrones
  • Categorización de Patrones ("clustering")
  • Aproximación y seguimiento de funciones
  • Procesamiento de señales
  • Predicción
  • Optimización
  • Control
  • Medicina
  • Gestión financiera

En este momento se ha dado solución a problemas con altos niveles de incertidumbre que con métodos tradicionales jamás su habría obtenido. Soluciones tan novedosas e interesantes como la reconstrucción craneofacial para la identificación de hombres, música neurocomputacional, sistemas de detección de virus en computadores conocidos y desconocidos, identificación de usuarios en cajeros automáticos desde la imagen del iris de los ojos, reconocimiento de emisores en comunicaciones, diagnóstico de hepatitis, recuperación de telecomunicaciones ante fallas en el software, interpretación de palabras chinas, detección de minas submarinas, análisis de texturas, reconocimiento de objetos tridimensionales y reconocimiento de texto manuscrito.


Arriba

Parte 1

Comentarios
jes_alf_lopez@yahoo.com


[Redes Neuronales] [Computación Evolutiva] [Lógica Difusa] [Principal]


Ultima modificación Agosto/03/2000