Cada día en EE UU mueren 100 personas en accidentes relacionados con un vehículo a motor. Pero mientras que aceptamos como inevitables los errores humanos detrás de la mayoría de estas muertes, cuando es una máquina la que comete el error la sensación es bien distinta. ¿Qué pasó el domingo por la noche en Tempe, una localidad rural de Arizona, para que un coche autónomo en pruebas atropellara mortalmente a una mujer? De momento, la compañía propietaria del vehículo, Uber, ha pisado el freno y paralizado hasta nuevo aviso sus pruebas en entornos reales en todas las localidades de Norteamérica donde se estaban realizando (San Francisco, Phoenix, Toronto y Pittsburgh).

Otras compañías, como Toyota y la startup nuTonomy que trabaja con Lyft, han anunciado las mismas medidas. Las autoridades de Arizona se están pensando si van a seguir ofreciéndose con los brazos abiertos a las compañías de coches autónomos como campo de pruebas. Además de Uber, la decisión afectaría a la compañía Waymo, que actualmente ofrece sus servicios de taxis sin conductor en el estado. El mundo del coche autónomo, tan prometedor, aguanta la respiración por unos días a la espera del resultado de la investigación.

  • Entornos reales

Si Uber retoma sus pruebas, y si Arizona sigue dándoles permiso para hacerlo, dependerá de si el accidente, una vez investigado, apunta a un exceso de confianza. En otras palabras: ¿es demasiado pronto para testar estos vehículos en entornos reales? “No me parece que ese sea el problema en este caso. Había un conductor humano al volante, y esta persona tampoco fue capaz de reaccionar a tiempo. No parece haber sido un fallo de la tecnología”, argumenta Chris Nicholson, CEO de Skymind, una empresa líder en aplicaciones de deep learning utilizada por los coches autónomos. A falta de un informe completo sobre el accidente, los detalles que han trascendido (eran las 10 de la noche, la víctima cruzaba desde la mediana de la carretera en una zona no señalizada) apoyarían esta teoría

Getty Images

Cabe preguntarse si un conductor al volante de un coche que se conduce solo presta la misma atención durante todo el trayecto a la carretera o es más susceptible de distraerse en un momento dado. Si el hecho de llevar conductor humano “de refuerzo” no sirve a los vehículos autónomos en pruebas para evitar accidentes mortales, los tests en entornos reales pueden acabar relegados a un momento mucho más lejano en el futuro. “Google (Waymo ahora) lleva diez años testando sus vehículos en California y no ha tenido ningún accidente. No me parece que se pueda poner a todas las compañías en el mismo saco”, opina el profesor de la Universidad de Delft y doctorado en robótica de sistemas autónomos del MIT, Javier Alonso-Mora.

Lo cierto es que a largo plazo no puede haber vehículo autónomo sin pruebas en entornos reales. Como explica Nicholson, “los algoritmos empiezan siendo tontos. Solamente puedes hablar de una máquina inteligente después de haber introducido en ella una cantidad suficiente de datos y posibilidades. Así que probar estos vehículos en entornos reales es indispensable si queremos que sean realmente inteligentes y seguros”.

Para conseguir un coche sin conductor del que nos podamos fiar en el futuro y que sea, como prometen los expertos en esta tecnología, mucho más seguro que un coche conducido por un humano, hay que probarlo en circunstancias reales, con otros conductores reales, con otros peatones reales. Es decir, el sistema tiene que fallar primero para poder ser casi infalible después. “Y ahí tenemos la clave: cómo conseguir que las máquinas aprendan sin que se produzcan muertes”. Hay diferentes maneras: incorporar conductores humanos, como el que llevaba este vehículo de Uber, y probar los coches en entornos cerrados o virtuales. Pero nada es tan eficaz como un entorno real. Esta no será la última vez que nos enfrentemos a una situación así”, vaticina Nicholson.

Arizona es uno de los estados más permisivos con este tipo de pruebas. En California se acaban de aprobar las pruebas de vehículos autónomos sin conductor de seguridad y ya hay 50 compañías que han obtenido permiso para hacer estas pruebas en sus carreteras. Los más cautos piden una regulación a nivel federal.

  • Los límites del frenado inteligente

¿Y qué pasa con lo sistemas de frenado automático que tantos coches han ido incorporando? Cada marca tiene su propia tecnología que incluye el uso de sensores, cámaras y hasta ultrasonido para detectar la proximidad de un objeto y frenar por sí solos. Desde marcas de alta gama como Mercedes Benz a otras de gama media como Subaru han incorporado algún sistema automático de frenado que evita colisiones. Estos sistemas son especialmente eficaces para evitar choques aparcando o en situaciones de tráfico intenso con el vehículo de delante, y, según cálculos del Instituto de Seguridad Vial en autopistas de EE UU, tiene potencial para prevenir casi 2 millones de colisiones al año y hasta 900 muertes.

Pero en el caso del accidente de Tempe, y por lo que se sabe hasta la fecha, “hay reglas de la física que ningún sistema de frenado automático puede saltarse. Si lanzas un objeto, o una persona, delante de un coche que circula a una velocidad de 65 km por hora, ni el sistema automático tiene tiempo de frenar, ni el conductor humano tiene tiempo de reaccionar”, explica Nicholson. “Me sorprende que el coche no detectara a esta persona porque los sensores LIDAR tiene láser y funcionan perfectamente de noche. En teoría, el coche tendría que haber frenado por si solo”, considera Alonso-Mora, quien recuerda que los sensores que hay disponibles en el mercado están preparados para estas situaciones. “A no ser que la programación de este coche en particular asumiera que fuera de los pasos de peatones no hay posibilidad de que cruce nadie, cosa que me extrañaría”. Alonso-Mora descarta, en cualquier caso, que se trate de un problema de que la tecnología no esté lista para conducir en entornos reales.

  • Responsabilidad civil, penal y ética

El conductor de refuerzo no es una garantía absoluta, como es lógico. En los otros dos accidentes que los vehículos de Uber han tenido hasta la fecha (uno en San Francisco, en agosto de 2017, y el segundo en Tempe en marzo del año pasado) había conductores en los coches. Pero es difícil demostrar quién estaba al volante en el momento del choque, si el humano o el ordenador. Mientras Uber aseguró que fue el conductor humano el que había desconectado el sistema autónomo en el accidente de San Francisco, antiguos empleados y filtraciones al diario The New York Times apuntaban a que no había sido así. Tras el accidente del año pasado en Tempe, en el que las autoridades concluyeron que el otro vehículo había sido responsable por saltarse un ceda el paso, Uber tardó tres días en volver a poner sus coches en las carreteras.

Aquellos fueron casos sin víctimas, pero el de esta semana puede traer consecuencias penales. Si la investigación determinara que se trató de un fallo del algoritmo, que debió haber detectado a la víctima y no lo hizo, ¿se puede culpar al conductor de refuerzo de no haber actuado a tiempo? Si la respuesta es no, y el fallo es al 100% de un error de software, ¿son los ingenieros responsables de su desarrollo los que han de responder ante la ley? Todas estas dudas se irán resolviendo sobre la marcha, con casos reales, como el de Tempe.

  • Punto de inflexión

“Siempre habrá riesgo, es imposible experimentar con estos vehículos con riesgo cero. Las pruebas hay que hacerlas con la mayor de las precauciones. Ahora mismo creo que la inversión y el interés el sector están asegurados, pero si empieza a haber más accidentes de este tipo puede haber un retroceso importante”, opina Alonso-Mora.

Nicholson tampoco piensa que este accidente como caso aislado suponga un frenazo total, pero considera que debería ser un punto de inflexión, el momento en el que la industria debe empezar a hacerse una serie de preguntas: en primer lugar, llegar al fondo de lo que pasó y compartir la información para que sirva de aprendizaje. “No esperábamos tener que enfrentarnos a un caso como este tan pronto. Entiendo que cada compañía siente que publicar sus errores es darle ventaja a la competencia, pero en casos como estos es imprescindible. Este accidente debe convertirte en un caso de estudio para toda la industria”.

Pero incluso en caso de que la investigación termine por concluir que Elaine Herzberg habría sido fatalmente atropellada en otras circunstancias, sin tecnología autónoma de por medio, la idea de que los coches sin conductor son más seguros porque evitan el error humano ha sufrido un golpe importante. “No construimos máquinas inteligentes para que cometan los mismos errores que los humanos. Las hacemos para que sean más eficaces. Sin duda, estamos menos dispuestos a aceptar un error de una máquina que un error humano”. Entre las muchas cosas que tienen que pasar para que los coches sin conductor pasen a formar parte de nuestra realidad cotidiana una, la más difícil de superar, será justamente esta.

MÁS INFORMACIÓN

Fuente: El País