LABORATORIO. Errar es Humano. Pero también los coches autónomos se equivocan.

l

Los sistemas autónomos de manejo… ¿provocarán peores conductores?

Imagina aprender a manejar en un mundo que se asemeja a la locura en carretera de “Mad Max” o “Rápidos y Furiosos”.
En ese mundo, nadie obedece la ley ni las delimitaciones de los carriles, y todos, desde los conductores distraídos hasta los peatones que cruzan la calle imprudentemente, te obligan a tomar decisiones de vida o muerte en una fracción de segundo, a propósito.

Someter a los vehículos autónomos a un mundo así, dicen los ingenieros, es precisamente cómo los fabricantes y los reguladores sabrán que están listos para asumir la responsabilidad de nuestras vidas. Para entender por qué, es útil saber un poco sobre cómo se entrenan los algoritmos de inteligencia artificial al corazón de los sistemas de conducción autónoma para manejar situaciones difíciles. En casi todos los fabricantes de esos sistemas, gran parte de esta capacitación se realiza en simulación. Esa es una opción mucho más segura y económica que recopilar datos en el mundo real de vehículos reales, dice Henry Liu, profesor de ingeniería en la Universidad de Michigan y director de Mcity, unas instalaciones para probar vehículos autónomos. Muchas empresas se jactan de la cantidad de kilómetros que sus vehículos autónomos y semiautónomos han recorrido en el mundo real, pero es probable que registren al menos mil veces más kilómetros en simulación, agrega Liu. Por ejemplo, Waymo, la empresa hermana de Google, ha dicho que sus vehículos han acumulado más de 3.2 millones de kilómetros sin un conductor detrás del volante. En el mundo real, un vehículo podría tener que viajar cientos o incluso miles de kilómetros para tener un encuentro complicado del que aprende algo nuevo. Pero en la simulación, los ingenieros pueden hacer que sus sistemas de conducción autónomos se enfrenten a peatones cruzando la calle imprudentemente, ciclistas saliendo de detrás de camiones detenidos, cambios repentinos de carril por otros conductores, básicamente, cualquier cosa que puede causar un accidente. La clave para probar la capacidad de un vehículo autónomo para manejar situaciones difíciles es saber qué tipo de situación podría surgir. Como resultado, se ha desarrollado una serie de iniciativas para recopilar y poner a disposición grupos de datos sobre qué tipos de escenarios conducen a choques y otros accidentes.

Compañías como Waymo, Cruise, Tesla, Motional (una empresa conjunta de Hyundai y Aptiv) y Mobileye tienen sus propios archivos de situaciones en las que personas tras el volante hacen cosas insensatas. Ningún vehículo autónomo estará jamás libre de accidentes, particularmente en un mundo en el que los conductores, peatones y ciclistas humanos reales frecuentemente tienen la culpa de los accidentes.

En algún momento, independientemente de lo resilientes que sean los sistemas de conducción autónoma ante los retos, recae en los gobiernos determinar si son lo suficientemente libres de peligro. Y aunque todas las empresas de vehículos autónomos están utilizando la simulación para entrenar y probar sus vehículos, varía la forma en que se mide su desempeño. Esta, en parte, es la razón por la que varía el comportamiento de estos vehículos. Ya sea que en un futuro no muy lejano nos subamos a un taxi autónomo o activemos el interruptor de “conducción autónoma” en nuestros autos, el habilitador clave de esta tecnología será la confianza.

¿Y cómo sabremos que podemos confiar en estos vehículos? En parte, será porque se graduaron de la escuela de manejo Mad Max. El resultado es, literalmente, un curso intensivo para vehículos autónomos. Las promesas del lanzamiento inminente y generalizado de autos totalmente autónomos, particularmente de Elon Musk, director de Tesla, han demostrado una y otra vez que son inútiles. Eso no significa que no veremos pronto más vehículos sin nadie detrás del volante, aunque sólo sea metafóricamente. En todos los casos, es probable que las pruebas y la capacitación en los escenarios más difíciles disponibles sean importantes tanto para hacer que estos vehículos “cuajen” como para verificar que sean lo suficientemente seguros. Uno de los principales obstáculos para el lanzamiento de los vehículos autónomos han sido los llamados “casos al filo”: escenarios raros, pero potencialmente desastrosos que ya han provocado accidentes, como las fallas en los sistemas autónomos de Tesla que provocaron el retiro del mercado de más de 360 mil vehículos. La simulación hace posible que sistemas autónomos practiquen una y otra vez con estos casos al filo, por ejemplo, un peatón que repentinamente cruza la calle directamente frente a un vehículo. Estos mundos infernales de conducción simulada también pueden hacer posible hacer algo tan importante como entrenar a un sistema autónomo. Todo este entrenamiento y pruebas es precisamente lo que nos ha llevado a este momento, cuando dos empresas, Waymo y Cruise, la unidad de General Motors, están probando activamente los taxis robotizados en varias ciudades, y Mobileye dice que ofrecerá a los fabricantes automotrices un sistema que puede hacerse cargo por completo de la conducción en carretera en vehículos personales para el 2026. Demostrar matemáticamente que los sistemas de conducción autónoma son más seguros que los humanos será fundamental para pasar de unos cientos de robotaxis en los caminos a miles y, con el tiempo, a millones de vehículos autónomos de todas las descripciones.

paso-de-peatones-senales-de-trafico-11367249

Sin una prueba así, los reguladores no tienen un estándar para evaluar objetivamente si un sistema es aceptable. Pero con esa prueba en la mano, los reguladores de seguridad podrían otorgar a los vehículos autónomos una especie de licencia de conducir. Algo así como una prueba de manejo emanada de Mad Max. En EU, la Administración Nacional de Seguridad del Tráfico en las Carreteras ya está trabajando en nuevas reglas que podrían pedir un requisito así. Los humanos son complicados, aún si las reglas de tránsito no lo son Waymo tiene una larga tradición de someter a los sistemas de conducción autónomos a pruebas de tortura en simulación antes de que se les permita interactuar con peatones, ciclistas y otros vehículos reales. Un método empleado por la compañía para esto se llama “Prueba de Prevención de Colisiones” o CAT, por sus siglas en inglés. Waymo expone su software de conducción autónoma a situaciones simuladas que podrían llevar a lesiones o muerte, y luego evalúa qué tan bien se desempeña en comparación con un conductor humano completamente alerta y concentrado. Ahora bien, que el conductor humano no cometa errores… está por verse.

                  Con información del Wall Street Journal

Advertisement

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s