Sensores que imitan el ojo humano para ordenadores que “piensan” como una persona

Paloma Recuero de los Santos    22 abril, 2021
Ojo humano

La investigación en sensores ópticos que imitan de cerca el funcionamiento del ojo humano impulsa el avance en los campos de la robótica, reconocimiento de imágenes e inteligencia artificial. Por ello es tan interesante destacar la reciente publicación en la revista Applied Physics Letters del innovador dispositivo retinomórfico diseñado por John Labram, investigador de la Facultad de Ingeniería de la Universidad del estado de Oregón, y la estudiante de posgrado Cinthya Trujillo Herrera.

¿Cómo funcionan nuestros ojos?

El ojo es un órgano muy complejo, con más de 100 millones de fotorreceptores. Sin embargo, el número de conexiones que tiene el nervio óptico con el cerebro es significativamente menor, tan sólo un millón. ¿Qué significa este dato? Muy sencillo. Significa que, antes de transmitir la imagen, en la retina tiene lugar una intensa labor de preprocesamiento y comprensión dinámica.

Por otra parte, nuestro sentido de la vista está optimizado para la detección de objetos en movimiento, dando menos prioridad a las imágenes estáticas. Es decir, nuestros circuitos ópticos priorizan las señales de los fotorreceptores que detectan un cambio en la intensidad de la luz, restando relevancia a la información estática, hasta el punto de generar interesantes fenómenos como el efecto Troxler.

El efecto Troxler o desvanecimiento de Troxler, consiste en fijar la vista en un punto determinado durante unos veinte segundos y después observar cómo nuestra visión periférica empieza a hacer de las suyas. Por ejemplo, si miramos fijamente durante 20 segundos la cruz del centro, vemos cómo el punto que se mueve parece que cambia de color.

https://gifimage.net/green-dot-illusion-gif-4/

Los chips de las cámaras digitales y los teléfonos inteligentes, escanean las imágenes en una matriz bidimensional de sensores, píxel a píxel, a una frecuencia determinada. Cada sensor genera una señal con una amplitud que varía directamente con la intensidad de la luz que recibe. Esto significa que una imagen estática dará lugar a una tensión de salida más o menos constante del sensor. Por ello, estas tecnologías convencionales son más adecuadas para el procesamiento secuencial.

Sin embargo, nuestro cerebro no funciona de esta manera. El procesamiento de las imágenes no se realiza de forma presencial, sino de una forma “masivamente paralela”. Por ello, para alcanzar todo su potencial, un ordenador que “piense” como un cerebro humano necesita un sensor de imagen que “vea” como un ojo humano.

Computación neouromórfica

La computación neuromórfica se basa en la replicación, mediante hardware, de ciertos aspectos del cerebro humano con el objetivo de superar a los ordenadores convencionales en tareas de aprendizaje automático. Por ello, este tipo de ordenadores están llamados a impulsar la próxima generación de inteligencia artificial en aplicaciones como los coches autónomos, la robótica y el reconocimiento avanzado de imágenes.

Los intentos anteriores de construir un dispositivo del tipo ojo humano, llamado sensor retinomórfico, se han basado en software o hardware complejo. En los últimos años ha habido grandes progresos en este campo, pero seguía habiendo un problema por resolver. Aunque los algoritmos y la arquitectura diseñados para procesar la información se parecían cada vez más a un cerebro humano, todas las señales de entrada que se suministran a estos sistemas seguían estando diseñadas para arquitecturas informáticas tradicionales (von Neumann). El nuevo sensor propuesto por estos investigadores resuelve este problema. Veamos cómo.

Sensores de perovskita

El equipo de Labram ha demostrado cómo un simple condensador fotosensible permite reproducir ciertos aspectos del funcionamiento de las retinas biológicas. Para ello, diseñaron un sensor formado por capas ultrafinas de semiconductores de perovskita.

Las perovskitas son una clase de semiconductores cuyas singulares propiedades fotoeléctricas les convierten en materiales muy interesantes para la creación de células solares de nueva generación y bajo coste. Los condensadores basados en perovskitas de haluro metálico emiten un breve pico de tensión en respuesta a los cambios en la intensidad de la luz incidente, pero bajo una iluminación constante, la tensión es nula. Este comportamiento es muy similar al de nuestras retinas, como hemos mencionado anteriormente. Por ello, este sensor sí que está optimizado para su uso con procesadores neuromórficos.

¿Cómo funcionan?

Ya hemos visto cómo en los sensores de nuestras cámaras digitales, o teléfonos inteligentes, la amplitud de la señal varía con la intensidad de la luz que recibe, por lo cual imágenes estáticas producen salidas de tensión constantes. El sensor retinomórfico, en cambio, permanece relativamente silencioso en condiciones estáticas. Sólo cuando detecta un cambio en la iluminación, registra una señal breve y aguda, volviendo rápidamente a su estado de referencia a continuación.

Para probar su funcionamiento, lo dejan un segundo a oscuras, y después encienden la luz. Al encender, se obtiene un gran pico de tensión, que luego decae rápidamente, aunque la intensidad de la luz permanezca constante. El equipo midió varios dispositivos y desarrolló un modelo numérico para reproducir su comportamiento. Para simular cómo respondería una cámara de vídeo retinomórfica a los estímulos de entrada, convirtieron un vídeo en un conjunto de intensidades de luz.

Las regiones en las que se prevé una salida de mayor tensión del sensor se iluminan, mientras que las regiones de menor tensión permanecen oscuras. Si la cámara es relativamente estática, se puede ver claramente que todas las cosas que se mueven muestran una respuesta muy clara, muy similar a la del paradigma de detección óptica en los mamíferos. Luego hicieron algunas simulaciones de prueba que mostraron los resultados esperados.

Resultados

En una de ellas, una simulación con imágenes de un entrenamiento de béisbol, los jugadores del campo aparecen como objetos móviles brillantes y claramente visibles. Por el contrario, los objetos relativamente estáticos , como el campo de béisbol, las gradas e incluso los jugadores de campo- se desvanecen en la oscuridad.

En otro ejemplo, la simulación muestra a un pájaro volando, que desaparece al detenerse en un comedero invisible. El pájaro reaparece al despegar y el comedero, que se balancea, sólo se hace visible cuando empieza a moverse.

Esta simulación permite introducir cualquier vídeo en una de estas matrices y procesar esa información esencialmente de la misma manera que lo haría el ojo humano. En palabras de Labram, es “como si un solo píxel hiciera algo que actualmente requeriría un microprocesador”.

Conclusión

Esto sensores suponen un gran avance en cualquier tecnología relacionada con la visión artificial. Por ejemplo, si se instalan en un robot, éste podría saber inmediatamente dónde está un objeto sin necesidad de realizar un un complejo procesamiento de imágenes. Con un simple barrido de su entorno, cualquier objeto estático no provocaría respuesta, mientras que los objetos en movimiento registrarían picos de voltaje. Las aplicaciones al campo de la robótica, vehículos autónomos, visión artificial etc no pueden ser más prometedoras.

Para mantenerte al día con el área de Internet of Things de Telefónica visita nuestra página web o síguenos en TwitterLinkedIn YouTube

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *