Redes neurales artificiales

Las redes neurales artificiales son simulaciones computacionales de funciones psicológicas inspiradas en el conocimiento del funcionamiento del cerebro real, en especial del funcionamiento de las neuronas reales.

Las redes neurales son fundamentalmente distintas a las computadoras convencionales, que utilizan una lista de instrucciones fijas para llevar a cabo funciones específicas. En contraste, las redes neurales están diseñadas para permitir que el sistema aprenda y para cambiar su asociación entrada-salida con base en alguna regla de aprendizaje. El trabajo con redes neurales se ha visto motivado por el reconocimiento de que el cerebro humano computa de manera totalmente distinta a la de una computadora digital convencional. Otra ventaja de las redes neurales sobre los modelos computacionales convencionales es que las entradas degradadas no destruyen las capacidades funcionales del sistema. En la actualidad, las redes neurales se utilizan para una amplia variedad de funciones, muchas de las cuales no tienen nada que ver con los intentos por comprender el funcionamiento del cerebro biológico.


Algunas de las ideas iniciales acerca de la disposición formal de las neuronas para formar circuitos psicológicamente significativos fueron trazadas por Sigmund Exner quien, en 1894. Aproximadamente durante la misma época, otro Sigmund, esta vez Freud, también coqueteaba con la posibilidad de conexiones neurales como explicación de los fenómenos psicológicos. Aunque existen diferencias significativas en la construcción y operación de las redes neurales, las redes neurales modernas contienen un número de características particulares: a) procesamiento local en neuronas artificiales (elementos de procesamiento: EP); b) procesamiento masivo en paralelo que consiste de ricas conexiones entre EP); c) la capacidad de aprender de la experiencia a través del entrenamiento; y d) almacenamiento del conocimiento en la forma de memorias.

Elemento de procesamiento:

El elemento de procesamiento (neurona conceptual o artificial) forma la unidad básica de procesamiento de las redes neurales. Primero, la entrada a la neurona tiene un peso (es decir, una cantidad de influencia), equivalente a la fuerza sináptica. Segundo, la influencia ajustada puede ser excitatoria o inhibitoria. Tercero, la neurona puede tener un número de entradas, en muchos casos similares a una neurona real, que puede tener hasta 10 000 entradas. La neurona tiene un valor de transferencia, que especifica la manera en que una cantidad de entrada se transfiere a salida hacia otras neuronas: la regla de descarga determina si cualquier neurona debe descargar según cualquier entrada dada.

Reglas de aprendizaje.

Existe un número de reglas de aprendizaje disponibles para guiar la construcción interna de las redes neurales. Estas reglas son algoritmos matemáticos utilizados para determinar el peso de las entradas.

Regla de Hebb: Esta regla afirma: si una neurona recibe una entrada de otra neurona, y si ambas están altamente activas y tienen el mismo signo.

Regla de Hopfield: Esta regla es similar a la Regla de Hebb; afirma: si la salida deseada y la entrada, ambas, están activas o inactivas, aumenta el peso de la conexión según la tasa de aprendizaje, de lo contrario, disminuye el peso según la tasa de aprendizaje

Regla Delta: Esta regla continuamente cambia las fuerzas de las conexiones de entrada para reducir la diferencia (delta) entre el valor de salida deseado y la salida real de la neurona.


Regla de Kohonen: El procedimiento funciona cuando la neurona de procesamiento con la salida más grande es declarada la ganadora y esta neurona ganadora tiene la capacidad de inhibir a sus competidores.

Capas de entrada y salida.


Esta sencilla red neural contiene algunas características importantes. Primero, se encuentra la capa de entrada; las neuronas con son sensibles a la señal de entrada. Segundo, se encuentra la capa de salida: las neuronas con producen salidas (preespecificadas) que, después del entrenamiento correcto, corresponden a la entrada. A menudo existen capas de asociación intermedias entre las capas de entrada y de salida; en los sistemas complejos, éstas se utilizan para abstraer funciones de orden superior, para inferir relaciones complejas y para formar representaciones internas de la estructura del patrón subyacente de entradas/salidas

No hay comentarios.:

Publicar un comentario

Aprendizaje y Plasticidad Neuronal

El aprendizaje humano precisa de múltiples estructuras cerebrales implicadas en diversos procesos. Nuestro cerebro no nace con infinitas c...