Este proyecto tiene como objetivo el diseño, prototipado y caracterización de una nueva arquitectura de sensor de imágenes CMOS inteligente de ultra-alta sensibilidad capaz de simultanear la adquisición de imágenes 2-D, mapas de intensidades, con imágenes 3-D, profundidad de las imágenes.
Para el diseóo de dicho sensor se considerarán distintas aproximaciones que incluyen el estudio de dispositivos sensores tipo SPAD (Single Photon Avalanche Diode), y se abordará de forma sistemática la incorporación de inteligencia en sensores de imagen 3-D. Se trata de conseguir tanto la adaptación de la respuesta a la imagen captada como el procesamiento y la extracción in-situ de la información contenida en las imágenes. Usamos para ello tecnologías CMOS tipo 3D-WSTACK, consistentes en un apilamiento de obleas de semiconductor "wafers" interconectados verticalmente. Estas tecnologías definen la última frontera de la microelectrónica y permiten resolver los cuellos de botella observados en los actuales productos de visión de ANAFOCUS.
Junto con la utilización de estas tecnologías apiladas, la propuesta aborda la problemática de la limitada resolución espacial de los sensores inteligentes de estado-del-arte, incluyendo los sensores diseñados previamente por el equipo y empleados en aplicaciones industriales. Este problema lo afrontamos recurriendo al uso de soluciones arquitecturales heterogéneas, tanto en la dirección horizontal (en cada "wafer") como en la vertical (a lo largo del apilamiento de obleas). En estas soluciones arquitecturales las estructuras de procesamiento se distribuyen por el sensor con una escala diferente a la de los píxeles de sensado propiamente dichos, y se asignan dinámicamente en base a la identificación de puntos salientes y características principales de las imágenes que son evaluadas "on-line" por el propio sensor.