link de archivos: http://adf.ly/r8gYd
Redes
Neuronales - Reconocimiento de Patrones Geométricos.
Introducción.
Warren
McCulloch, Walter Pitts y Frank Rosenblatt, neurólogo, matemático y psicólogo
respectivamente fueron los pilares fundamentales en la construcción de un
modelo capaz de utilizar los recursos de un computador para hacer que estos
aprendieran tal cual lo hacen los humanos. El resultado: las redes neuronales
artificiales, un paradigma dentro de la inteligencia artificial que emula el
comportamiento de las redes neuronales biológicas.
Estas
redes, capaces de procesar información compleja, ofrecen una alternativa en
aplicaciones donde resultaba muy arduo el modelado matemático. El desarrollo de
neuro-controladores, sistemas autoguiados, reconocimiento de rostros, identificación
del cáncer en sus primeros estados,
estudios
económicos y financieros son solo alguna de las tantas aplicaciones de esta
herramienta.
.
Redes
Neuronales Artificiales(RNA).
Fundamentos.
En
1943, Warren McCulloch y Walter Pitts, neurólogo y matemático respectivamente,
unieron
sus
esfuerzos para dar a conocer un artículo titulado "Un Cálculo Lógico de
las Ideas Inmanentes en la Actividad Nerviosa". Este artículo propone por
vez primera un modelo matemático de una red neuronal artificial. La unidad de
este modelo, una simple neurona artificial, es todavía usada como estándar
referencial en el campo de las redes neuronales artificiales.
En
este modelo se observa la posibilidad de n entradas (inputs), cada una relacionada
con pesos
sinápticos
(weights), que en conjunto con una función de activación generan una salida
(outputs).
Entradas: Señales
a ser procesadas por la red neuronal.
Pesos Sinápticos: Valores
numéricos constantes que ponderan los valores de entrada de una neurona artificial.
Representa la intensidad de la sinapsis entre las neuronas.
Salidas: Resultado
del procesamiento de los datos introducidos a la red neuronal. Esta salida es posteriormente
comparada con unos “objetivos”.
Función de Activación: Función
matemática que transforma la entrada total en la respuesta de una
neurona
artificial.
Debido
a su constitución, las RNA exponen características semejantes al cerebro
humano:
Aprendizaje adaptativo: son
capaces de aprender en base a un entrenamiento o experiencia inicial.
Generalización: una
vez entrenada, a la red se le pueden presentar datos distintos a los usados
durante
el aprendizaje. La respuesta obtenida dependerá del parecido de los datos con
los ejemplos de entrenamiento.
Abstracción o tolerancia al
ruido: son capaces de extraer o abstraer las características esenciales
de las entradas aprendidas, de esta manera pueden procesar correctamente datos
incompletos o distorsionados.
Procesamiento paralelo: la
información es procesada por las neuronas artificiales en forma paralela.
Memoria distribuida: el
conocimiento acumulado por la red se halla distribuido en numerosas conexiones.
Tolerancia a fallos: una
red neuronal es capaz de seguir funcionando adecuadamente a pesar de sufrir lesiones
como la destrucción de neuronas o sus conexiones, ya que la información se
halla distribuida por toda la red.
Arquitectura de Redes.
En
1957, Frank Rosenblatt completa la teoría del Perceptrón, tecnología usada en
la Universidad de Cornell con la que un computador podía aprender nuevas
habilidades por ensayo y error, usando un tipo de red neuronal que simulaba el
pensamiento humano. Este modelo era capaz de generalizar, sin embargo tenia una
limitante, era incapaz de clasificar clases no linealmente separables. En 1974 Paul
Werbos desarrolló la idea básica del algoritmo de aprendizaje de propagación
hacia atrás. No fue sino hasta 1986 cuando David Rumelhart y Geoffrey Hinton
redescubrieron el algoritmo de aprendizaje de propagación hacia atrás y a
partir de ese momento el desarrollo en el área de las redes neuronales
artificiales ha sido significativo, sin llegar todavía a ser explotado su potencial
al máximo.
Redes Monocapa: Es
aquella arquitectura de red en la que no existen capas ocultas; solo está
presente la capa de entrada y la de salida, considerando una capa como una
agrupación de neuronas.
Redes Múlticapa: Compuesta
por una o varias capas ocultas, son capaces de resolver clases no separables linealmente,
expandiendo así el campo de desarrollo de las RNA y su aplicabilidad. Un
ejemplo de este tipo de redes: el perceptrón multicapa:
Perceptrón Múlticapa.
La
red perceptrón múlticapa es entrenada de forma supervisada mediante el
algoritmo backpropagation. Al hablar de red backpropagation se hace referencia al
algoritmo de aprendizaje y no a la propagación de las señales durante el
funcionamiento de la red. Backpropagation consiste en propagar el error hacia atrás
durante el entrenamiento, es decir, de la capa de salida hacia la capa de
entrada, pasando por las capas ocultas.
Por
sus características, esta red puede aprovechar al máximo las funcionalidades de
los sistemas de cómputos basados en múltiples procesadores.
Desarrollo de una RNA para el Reconocimiento
de Patrones Geométricos.
Se
desea desarrollar una RNA capaz de reconocer patrones geométricos, para lo que
se utilizará MatLab y sus potentes librerías. El objetivo es probar qué tan asertiva
es una RNA reconociendo figuras geométricas. Como ya se describió anteriormente,
las redes perceptrón múlticapa, por su arquitectura, son ideales para este tipo
de tarea.
Debido
a que los ejemplos ha utilizar para el entrenamiento del perceptrón múlticapa
deben
seleccionarse
adecuadamente con el fin de que esta adquiera la capacidad de generalización,
se estudió previamente las posibles distorsiones de un objeto que puedan
dificultar la tarea de reconocimiento.
Las
limitaciones para el reconocimiento de objetos son extensas. Las imágenes
pueden lucir diferentes por varias razones. La razón más importante es la perspectiva
desde la cual se pueden observar. Las imágenes pueden ser observadas desde
diferentes ángulos y posiciones. En ocasiones, se
tiene que lidiar con imágenes que, aunque luzcan diferentes son en esencia lo
mismo, como por ejemplo los árboles. Dos árboles nunca se verán idénticos, mas
sin embargo en el proceso de reconocimiento es deseable clasificarlos bajo la misma
categoría.
Un
inconveniente para el reconocimiento de imágenes es causado por el hecho de que
estas pueden estar en cualquier posición. Pueden estar rotadas, reflejadas,
escaladas, trasladadas, sesgadas.
Recomendaciones.
• Las redes neuronales artificiales deben considerarse como una
alternativa en la solución de aquellos problemas en los cuales no se han
obtenido buenos resultados utilizando los métodos tradicionales.
• Los ejemplos utilizados para el entrenamiento del perceptrón multicapa
deben seleccionarse adecuadamente para que la red adquiera la capacidad de generalización.
• Para el reconocimiento de objetos se debe considerar ciertas
dificultades inherentes al observador: rotación, traslación, reflexión, escalamiento,
sesgado, oclusión, iluminación y la presencia de múltiples objetos en una misma
imagen. Dependiendo de la aplicación para la que se desee desarrollar un
sistema de reconocimiento de imágenes estas dificultades resultan de mayor o
menor relevancia.
• La adquisición y el pre-procesamiento de las imágenes resulta una
etapa que define la manera en la que la red neuronal interactúa con el escenario
bajo estudio. Es de vital importancia la adecuación de dichos datos como entradas
al sistema. Procesos como la binarización de imágenes (“im2bw”),
adecuación
de número de píxeles que componen una imagen (“imresize”) y el tipo
de
estructuras de datos (lógicas, dobles,enteros, ente otros) a utilizar como
argumentos para los métodos (“newff”,“train”, ente otros) deben ser previamente
considerados.
Reconocimientos
a:
Cristian
Concha, departamento de Electricidad de la Universidad de Oriente-Nucleo
Anzoategui- Venezuela
cristianconchaflores@gmail.com
0 comentarios:
Publicar un comentario
Gracias por tu visita!!