Rev .Acad .Canar .Cienc . , IX (Nums. 2,3 y 4), 9-16 (1997)
Algunas consideraciones formales sobre la estructura, la funcion y el
tiempo en modelos retinales.
Aleman-Flores. M; Quesada-Arencibia. F.A.: Diaz-Urrestarazu.A.;Moreno-Diaz (jr). R.
Centro Internacional de Investigacion en Ciencias de la Computacion
Universidad de Las Palmas de Gran Canaria
CllCC-Campus de Tafira. Edf. de Informatica y Matematicas
35017 Las Palmas
{miguel.alex.roberto}@grumpy.dis. ulpgc.es; adiaz@ccdis.dis.ulpgc.es
ABSTRACT
Following the idea that structure and function in neurons and nets are
perfectK' linked and sometimes cannot be dissociated, this paper explores the effect of
introducing time in nets that were designed to mimic some functional spatial properties
of retinal tissues based on a microprocessal structure called dendritic computational
structure. As a result, new architectural restrictions arise to cope with problems like
consistencv of representation and completeness, that is, preservation of information, an
apparent requisit of foveal processing.
KcNAvords: neural nets, completeness, temporal consistency, retinal model. Newton
Filters.
RESUMEN
Siguiendo la idea de que la estructura y la funcion estan indivisiblemente
unidos en neuronas \ redes neuronales naturales. en concreto en las retinas de
vertebrados superiores. este trabajo explora el efecto de introducir el tiempo en redes
artificiales que han sido pensadas para duplicar ciertas propiedades espaciales del tejido
retinal y basadas en microestructuras de proceso (que llamaremos estructuras
computacionales dendriticas). Como resultado. aparecen nuevas restricciones en la
conectividad de las neuronas de la red para poder atacar los problemas de la consistencia
de la representacion que del mundo exterior llega a zonas mas centrales del sistema
nervioso y del mantenimiento de la informacion (complitud en el sentido formal
matematico), que son aparentemente requisitos del proceso de informacion que tiene
lugar en la fovea.
Palabras clave: redes neuronales. complitud. consistencia temporal, modelos retinales.
Filtros de Newton.
1.- La funcion.
Nos centraremos en la funcion en un sentido doble dependiendo de si hablamos de
neuronas simples o de redes de neuronas. En primer lugar. la palabra "funcion" se entendera
como el proceso de computo de una neurona. en el sentido de "operacion que se lleva a cabo
sobre los datos que caen sobre el campo receptivo de una celula". El resultado de dicha
operacion es llamado "descriptor" y en algunos casos una sola neurona puede ser capaz de
calcular mas de un descriptor sobre sus datos de entrada. En nuestro modelo, y en ese caso. se
necesitara una unidad de control externo a la celula. Por otro lado, la palabra "funcion" se
aplicara a una caracteristica u objetivo que ha de ser realizado o conseguido por la red, por
ejempio, que la transformacion sobre los datos de entrada sea completa (lo que equivale a decir
que no existe perdida de datos y que el espacio de las entradas puede ser recuperado punto a
punto si es necesario). Asi, "funcion" desde este segundo punto de vista estara mas cerca de lo
que Luria llama "un sistema funcional completo" { 1
} incorporando muchas microoperaciones
que pertenecen a niveles diferentes de proceso.
La funcionalidad espacial de las celulas ganglionares ha sido ampliamente explorada
desde los anos cincuenta en miles de experimentos. El clasico patron de pesos en forma de
sombrero mejicano (mexican-hat shape) que parece ser soportado por su campo dendritico ha
sido modelado, tambien, a traves de los mas diversos procedimientos siendo el mas conocido la
diferencia de dos gausianas (DOG) {2}. Nosotros hemos basado la modelizacion a partir de la
duplicacion aproximada de una arquitectura dada, vagamente inspirada en la conectividad
dendn'tica presente en algunas celulas retinales (Figura 1) y a continuacion explorando sus
propiedades matematicas, encontrando que el analisis en funciones de Hermite proporciona
herramientas mas precisas y mejores resultados cuando se usa para replicar el comportamiento
espacial de las celulas ganglionares {3,4} y para disefiar sus contrapartidas artificiales de
utilidad en proceso de imagen. Esto es, no se necesitan diferencias de gausianas para justificar
las funciones de pesos, sino que es la propia estructura formada por microprocesadores
identicos distribuidos en capas con los mismos pesos la que genera la distribucion de una forma
natural con la linica restriccion de que dos de dichas capas scan inhibidoras (matematicamente,
que sus pesos sean negativos). A este tipo de maquinas de computo discreto parecidas a
neuronas se les denomino Filtros de Newton {4}, y como queda apuntado. generan funcionales
de Hermite tras ser formuladas en el continuo.
En relacion a estas celulas, su funcion espacial puede ser descrita, en lenguaje natural,
como detectoras de contraste, y en terminos matematicos como unidades para el computo de
una operacion de tipo convolutorio, en algunos casos incluso producto matricial. Para mantener
un minimo parecido con la estructura que se presenta naturalmente en las primaveras capas de
proceso visual en vertebrados, estas unidades de computo se colocaran formando capas de
procesadores que actuan sobre los datos de entrada que suponemos sera una imagen o la
10
representacion de una imagen tras ser muestreada por la capa de fotorreceptores. \ isto como un
todo, y pasando al segundo significado de la palabra "funcion". el objetivo de este sistema
funcional completo es proveer a la siguiente capa de celulas con una descripcion coherente del
mundo exterior, evitando la perdida de informacion. Matematicamente es equivalente a ejecutar
una transformacion que posea inversa.
2.- La estructura que incorpora a la funcion.
De la Figura 1 puede observarse que nuestra maquina neuronal se constru\e a base de
situar capas de microprocesadores que ejecutan operaciones simples, las mas simples de las
cuales pueden ser una suma o una resta dependiendo del sigo (-t- o -) que afecta al peso (siempre
del mismo valor absoluto (1) de cada conexion. Suponemos que cada unidad microprocesadora
es equivalente a un contacto sinaptico y que en su version bidimensional tiene cuatro entradas.
Esta estructura ha sido previamente desarrollada en parte \ estudiadas sus propiedades
matematicas {3,5}, y como sumario de las mismas es posible afirmar que:
1.- Dado un numero de capas de procesos aditivos (es decir. pesos +1) \
diferenciadores (pesos -1). estas se pueden colocar a voluntad sin que cambie el
comportamiento de la maquina: la funcion general de la maquina neuronal es invariante
frente a cambios estructurales de dicha naturaleza.
2.- Cambiando la naturaleza de las capas de forma ordenada por medio de una
unidad de control externa es posible generar. sin cambiar de estructura computacional.
tantos funcionales diferentes como datos de entrada existan en el campo receptivo de la
maquina neuronal. La forma de operar se basa en cambiar ordenadamente el signo de
cada conexion de + a - o viceversa. Por ejempio, una celula de este tipo con un campo
receptivo rectangular de dimensiones mxm es capaz de computar mxm descriptores
diferentes \ linealmente independientes unos de otros.
Tambien se ha mostrado que las propiedades funcionales de estas maquinas (esto es, los
nucleos de computacion que son versiones discretas de funcionales de Hermite, generados por
la combinacion de procesos suma y diferencia) son una consecuencia directa de la estructura de
la maquina neuronal (una cascada de microprocesos ordenada en capas) y en este sentido
estructura y funcion son mutuamente dependientes en nuestro modelo.
3.- El flujo del tienipo.
Supongamos que tenemos una arquitectura basada en los bloques mostrados en la
Figura 1, tal y como muestra la Figura 2, con celulas (o maquinas neuronales) cuyos campos
receptivos son todos del mismo tamano, un cuadrado de dimensiones mxm, y que el diseno
incluye la unidad de control externa mencionada anteriormente y que cambia los signos
ordenadamente, de forma que para computar cada descriptor se necesitan i unidades de
tiempo. Para conseguir el objetivo de obtener una descripcion completa (es decir, que se realice
una transformacion con inversa) de los datos de entrada, esta, la entrada, debe permanecer sin
cambios por al menos m' i unidades de tiempo. Esto se muestra en la Figura 3, y de forma mas
general en la Figura 4.
Un registro intermedio de datos es emplazado tras la capa de receptores para introducir
un retardo en la flujo de sefiales con el objeto de "'dar tiempo" a la capa de procesadores de la
maquina neuronal a calcular todos los descriptores necesarios. A su vez, este registro envia a la
siguiente capa una version de la imagen de entrada dividida en el tiempo de forma que para
cada imagen son enviados m" x mensajes por cada maquina neuronal.
De esta estructura hay que resaltar dos puntos importantes:
Primero, cuando los datos de entrada cambian mas rapidamente que la escala de tiempo
fijada para el funcionamiento de los procesadores, gobernada por la unidad de control externa,
se pierde la capacidad de recuperar de forma fiable los datos de entrada (Figuras 4 y 5).
Segundo, cuando se combinan maquinas neuronales con campos receptivos de distinto
tamano, los datos son transmitidos en instantes diferentes dando una representacion
I
inconsistente de la entrada. Es necesario, pues, en este caso, que las sefiales de celulas
(maquinas neuronales) de mayor campo receptivo sean transmitidas mas rapidamente que las de
menor campo receptivo.
4.- Implicaciones en Teoria Retinal. Conclusiones.
En la exploracion y modelizacion o formalizacion matematica de los mecanismos que
subyacen en el proceso de informacion visual en los seres vivos es posible encontrar
herramientas de computo y estructuras novedosas cuyas caracteristicas permiten. de manera
razonable. hacer suposiciones sobre la funcionalidad del "procesador natural"". En lo
desarrollado anteriormente se comprueba que. si imponemos la restriccion fuerte de la
complitud (es decir. que el sistema visual no pierda ni un bit de la informacion que le llega) el
tipo de interrelacion que debe existir entre la estructura. la funcion \ el funcionamiento
temporal del sistema es. tambien. mu\ restricti\a. en el sentido de que modificar una
caracteristica de la estructura (el tamaiio del campo recepti\o o el numero de capas de la
maquina neuronal, p.e.) implica modificar la escala de tiempos \ la funcionalidad. Por otro
lado. es de resaltar que algunas de las caracteristicas necesarias para que el sistema artificial
transmita informacion coherente del mundo exterior se comprueba existen en los sistemas
naturales: existen diferentes velocidades de transmision de informacion en neuronas diferentes.
\ dicha \elocidad esta ligada al tamafio del campo recepti\o {6}.
Referencias.
{ 1
} Luria. A.R. (1973). "The working brain"". Penguin Books. London.
{2} Marr.D. (1980). "X'ision"". WH Freeman and Co. New York.
{3} Moreno-Diaz jr. R. (1993) "Computacion paralela \ distribuida: relaciones
estructura-funcion en retinas"". Tesis Doctoral. L'niversidad de Las Palmas de Gran Canaria.
{4} Moreno-Diaz jr. R. Leibovic. K..N.. Bolivar Toledo. O. (1994) "Preser\ation of
information in retinal systems". Cybernetics and S\ stems. World Pub. Co. Singapur. \ol 1.
pp73 1-736.
{5} Moreno-Diaz. R. Garces-Guexara. S.. Moreno-Diaz jr. R. (1996) "Newton
Tranforms: new tools for CAST and Image Processing"". C\bernetics and S\tems. Num 27,
pp44]-447.
J6} Lettvin J. Maturana H. McCulloch W. Pins. W. (1953) "What the frog"s e\e tells
the frog's brain"" en "Embodiments of Mind"", The MIT Press, Cambridge. Mass. LSA.
Representacion simplificada de
lastrescapas
Salida del NerMO Opl
Figura 1: Estructura computacional detallada, en la que cada circulo representa una unidad
microcomputacional (una conexion dendritica). haciendo algunas operaciones sencillas. A la derecha, la
version mas simple que comprende esa estructura.
I
T
I
Figura 2: Maquinas Neuronales que comprenden las unidades microcomputacionales completas.
computando tres descriptores y que necesitan que los datos de entrada se mantengan tres unidades de
tiempo para ser estables. La unidad de control externa no esta dibujada por simplicidad.
14
Capa de Receptores
Buffer de Senales Retardadas
Figura 3: Una estructura general para computar en el tiempo una transformacion completa sobre una imagen
dada incidiendo en la capa de fotorreceptores. El color codifica los datos concernientes a la misma imagen de
entrada (por ejemplo. los mensajes de negro en el tercer bloque estan relacionados con la banda negra del
segundo, e igualmente con las bandas de ra\as verticales). El buffer se necesita cuando se asume que los
receptores trabajan mas rapido que la maquina neuronal. Tenemos que recordar que el prerrequisito de todo el
sistema es ser completo en el sentido matematico.
Capa de Receptores
Buffer de Senales Retardadas
Figura 4: Las celulas marcadas en negro tienen campos receptivos ma\ores \ transmiten datos procesados con un
desplazamiento en el tiempo. Estas celulas necesitarian una velocidad de transmision ma\or para evitar una
representacion inconsistente del espacio marcado en negro.
de Receptores menos de m'T
Buffer de Senales Retardadas
Figura 5: Si el espacio marcado en bianco permanece menos tiempo del necesario las maquinas neuronales
envi'an una representacion incompleta: se necesitan tres conjuntos de descriptores para recuperar el espacio
marcado en bianco y solo se envian do'.. Hay datos que se pierden.
16