Los ojos de los coches autónomos, mejores que los de los humanos

Los nuevos sistemas de visión artificial de los coches autónomos dejan atrás la algoritmia clásica para interpretar el entorno con mayor fiabilidad. Sin embargo, los semáforos múltiples o la niebla aún son un quebradero de cabeza.

0
573

El objetivo es que los sistemas de visión artificial registren el entorno, que los algoritmos resuelvan el acertijo y que los coches autónomos entiendan el mundo a la primera. Pero los ojos electrónicos no llegan todavía a todos los rincones, y el punto flaco reside en lo que los expertos denominan los corner cases. Aunque cada una de las tecnologías que utilizan los vehículos autopilotados está preparada para cubrir las debilidades de las demás, existen aún circunstancias peliagudas, casos extraños, que se escapan al control de la inteligencia artificial.

El radar detecta que tiene un objeto delante, por ejemplo, pero no sabe cuál es; la cámara ofrece una resolución altísima y representa muy bien el entorno, pero no acierta a averiguar la profundidad de campo; el lídar (acrónimo del inglés Laser Imaging Detection and Ranging), por su parte, calcula la distancia, sin prospecciones ni cálculos computacionales, pero proporciona una baja definición de imagen. Los expertos asumen que, en último término, no queda más remedio que jugar a este piedra, papel o tijera de la visión artificial.

En el terreno de las cámaras, Mobileye fabrica chips que “explotan al máximo la tecnología de extracción de información, calculando distancias con sus algoritmos propios”, cuenta Francisco Izquierdo, director técnico de Track Surveying Solutions, representante en España de Mobileye.

La algoritmia clásica hace una segmentación de imagen basada en colores y en formas, mediante filtros y superpíxeles que permiten definir qué píxeles corresponden a un objeto determinado. “Con eso se consiguen muy buenos resultados identificando personas y la parte trasera de los vehículos, es decir, la combinación de luces más matrícula”, explica Izquierdo. Pero la investigación avanza por otro lado. Mobileye, que pertenece a Intel desde 2017 y que colabora con BMW, Nissan y Volkswagen, utiliza otra técnica para extraer la información: las redes neuronales. “Han evolucionado mucho en los últimos cinco años gracias a Google y a Facebook, entre otros, gigantes que tienen muchísimos datos y que han sido capaces de etiquetar la información”, adelanta Izquierdo.

Ante una imagen captada por una cámara, la red disuelve píxeles, busca patrones y aplica una serie de pesos que contextualizan la escena e indican al vehículo que está en una carretera, que eso es una señal y en concreto qué señal es. “El cuello de botella está en tener mucha información de origen segmentada, porque tú a la red neuronal le tienes que enseñar”, añade el director técnico de Track Surveying Solutions. “Las redes neuronales tienen una gran capacidad de aprendizaje mediante algoritmos de machine learning y deep learning y pueden llegar al autoaprendizaje, pero el sistema necesita datos. Primero le enseñamos qué es un coche, qué es una moto y también qué no es un coche y qué no es una moto”, concreta Marga Sáez, responsable del área de Sistemas de Visión del Centro Tecnológico de Automoción de Galicia. “La cámara tiene una ventaja fundamental, que es la gran potencia de clasificación de objetos. Y con las cámaras de alta definición actuales se puede hacer con una precisión alta”, añade Sáez.

La lluvia, enemiga de la IA

La inteligencia artificial, sin embargo, no sortea bien todos los obstáculos. “En algunos casos, los semáforos son difíciles de interpretar. Por ejemplo, cuando hay tres carriles y dos de ellos están regulados por una luz y el tercero, por otra independiente. Y es peor en Estados Unidos, donde hay una luz para cada carril. Son muchas combinaciones posibles para el ordenador. Tiene que interpretar las luces, las líneas de carril… El humano soluciona esta situación sin demasiados problemas, pero un coche autónomo necesita que todo esté perfectamente estipulado”, explica Izquierdo.

La niebla es otra de las situaciones que suscita problemas a la visión artificial. Una cámara convencional ve tan mal como el ojo humano, o peor, y el lídar no recibe rebotes cuando hay agua en suspensión, pues esta absorbe la luz. Una de las soluciones más brillantes la mostraron el año pasado tres investigadores del MIT Media Lab. Su sistema de detección se basa en una cámara que lanza ráfagas de láser hacia los objetos y calcula el tiempo que tarda la luz en volver. Un algoritmo propio es capaz de descubrir patrones de luz reflejada, por mucho que esta se disperse en el agua, de manera que puede determinar con precisión a qué distancia están los objetos.

Ante la inabarcable cantidad de casos especiales con los que se encontrarán los coches autónomos, “la única salida es la combinación de tecnologías, como se hace en aviación. Tienen que existir procesos decisorios en paralelo para que el vehículo no se quede colgado”, concluye Izquierdo.

Fuente: elpaís

Dejar respuesta

Please enter your comment!
Please enter your name here