Las redes neurales artificiales son simulaciones computacionales de
funciones psicológicas inspiradas en el conocimiento del funcionamiento del
cerebro real, en especial del funcionamiento de las neuronas reales.
Las redes neurales son fundamentalmente distintas a las computadoras
convencionales, que utilizan una lista de instrucciones fijas para llevar a
cabo funciones específicas. En contraste, las redes neurales están diseñadas
para permitir que el sistema aprenda y para cambiar su asociación
entrada-salida con base en alguna regla de aprendizaje. El trabajo con redes
neurales se ha visto motivado por el reconocimiento de que el cerebro humano
computa de manera totalmente distinta a la de una computadora digital convencional.
Otra ventaja de las redes neurales sobre los modelos computacionales
convencionales es que las entradas degradadas no destruyen las capacidades
funcionales del sistema. En la actualidad, las redes neurales se utilizan para
una amplia variedad de funciones, muchas de las cuales no tienen nada que ver
con los intentos por comprender el funcionamiento del cerebro biológico.
Algunas de las ideas iniciales acerca de la disposición formal de las
neuronas para formar circuitos psicológicamente significativos fueron trazadas
por Sigmund Exner quien, en 1894. Aproximadamente durante la misma época, otro
Sigmund, esta vez Freud, también coqueteaba con la posibilidad de conexiones
neurales como explicación de los fenómenos psicológicos. Aunque existen diferencias
significativas en la construcción y operación de las redes neurales, las redes
neurales modernas contienen un número de características particulares: a)
procesamiento local en neuronas artificiales (elementos de procesamiento: EP);
b) procesamiento masivo en paralelo que consiste de ricas conexiones entre EP);
c) la capacidad de aprender de la experiencia a través del entrenamiento; y d)
almacenamiento del conocimiento en la forma de memorias.
Elemento
de procesamiento:
El elemento de procesamiento (neurona conceptual o artificial) forma la
unidad básica de procesamiento de las redes neurales. Primero, la entrada a la
neurona tiene un peso (es decir, una cantidad de influencia), equivalente a la
fuerza sináptica. Segundo, la influencia ajustada puede ser excitatoria o
inhibitoria. Tercero, la neurona puede tener un número de entradas, en muchos
casos similares a una neurona real, que puede tener hasta 10 000 entradas. La
neurona tiene un valor de transferencia, que especifica la manera en que una
cantidad de entrada se transfiere a salida hacia otras neuronas: la regla de
descarga determina si cualquier neurona debe descargar según cualquier entrada
dada.
Reglas de aprendizaje.
Existe un número de reglas de aprendizaje disponibles para guiar la
construcción interna de las redes neurales. Estas reglas son algoritmos
matemáticos utilizados para determinar el peso de las entradas.
Regla de Hebb: Esta regla afirma: si una neurona recibe una entrada de
otra neurona, y si ambas están altamente activas y tienen el mismo signo.
Regla de Hopfield: Esta regla es similar a la Regla de Hebb; afirma: si
la salida deseada y la entrada, ambas, están activas o inactivas, aumenta el
peso de la conexión según la tasa de aprendizaje, de lo contrario, disminuye el
peso según la tasa de aprendizaje
Regla Delta: Esta regla continuamente cambia las fuerzas de las
conexiones de entrada para reducir la diferencia (delta) entre el valor de
salida deseado y la salida real de la neurona.
Regla de Kohonen: El procedimiento funciona cuando la neurona de
procesamiento con la salida más grande es declarada la ganadora y esta neurona
ganadora tiene la capacidad de inhibir a sus competidores.
Capas de entrada y salida.
Esta sencilla red neural contiene algunas características importantes.
Primero, se encuentra la capa de entrada; las neuronas con son sensibles a la
señal de entrada. Segundo, se encuentra la capa de salida: las neuronas con
producen salidas (preespecificadas) que, después del entrenamiento correcto,
corresponden a la entrada. A menudo existen capas de asociación intermedias
entre las capas de entrada y de salida; en los sistemas complejos, éstas se
utilizan para abstraer funciones de orden superior, para inferir relaciones
complejas y para formar representaciones internas de la estructura del patrón
subyacente de entradas/salidas
No hay comentarios.:
Publicar un comentario