Conducción autónoma: estadísticas y estrategias

Autor: | Posteado en Noticias Sin comentarios

Noemí Navas, de Expansión, me llamó para hablar sobre los últimos accidentes en vehículos fabricados por Tesla, y sobre si eso supone, de alguna forma y como ha finalmente titulado, que “¿Se rompe el sueño de la conducción autónoma?” (pdf), una pregunta para la que mi respuesta es un categórico “no”.

El accidente de Joshua Brown en un Tesla Model S al impactar contra el remolque de un camión cruzado en la carretera es sin desconfianza trágico y desgraciado, un conjunto de casualidades y de limitaciones que se conjugan muy escasas veces, sin embargo que fundamentalmente, responde a un dilema derivado del exceso de confianza: todo indica que el conductor, que segun algunos estaba viendo una película y que en situaciones preliminares se había grabado a sí mismo usando el Autopilot, tenía la costumbre de desobedecer las directrices del mismo, que piden claramente al cliente que mantenga su interés en la conducción y sus manos en el volante.

Que un camión con remolque largo cruce perpendicularmente una autopista, que el remolque sea blanco y brillante, que el obstáculo que cree no este a la altura del suelo sino elevado, y que ni el Autopilot lo detecte ni el conductor este suficientemente atento como para visualizar algo así es una mezcla de factores muy poco usual. Y en esos casos, los factores que dependen del algoritmo se corrigen inmediatamente y se incluyen para que no vuelva a suceder algo similar inclusive en las posiblemente muy poco repetibles circunstancias similares, sin embargo la pérdida de una vida humana ya ha tenido lugar. Pero sobre todo, el dilema no esta en la tecnología, sino en el exceso de frenesí que lleva a alguien a desoír las recomendaciones de uso de la misma. El cerebro y los patrones de conducta humanos, contrariamente a lo que ocurre con los algoritmos de las máquinas, no es sencillamente reprogramable, y si algo demuestra el accidente de Brown es que los humanos, ante una circunstancia que les genera confianza, tienden a reducir el nivel de prudencia aconsejable inclusive creando caso omiso de las reglas marcadas por el fabricante. Es normal, todos tenemos ejemplos de ese tipo, y me consta perfectamente que Joshua Brown, en cierto sentido, podría haber sido yo mismo, que tiendo a colaborar ese frenesí con lo nuevo y a cometer imprudencias con cierta facilidad.

¿Quiere eso mencionar que el sueño de la conducción autónoma de alguna forma se rompe? Nada mas lejos de la realidad. Los números cantan: en el tiempo en que una persona ha perdido la vida en un accidente tan solo parcialmente atribuible a la conducción autónoma, varios decenas de individuos han fallecido en las carreteras víctimas de fallos derivados de la conducción humana. El desarrollo de la conducción autónoma va a salvar muchísimas vidas, y parar su avance por un accidente que procede de no continuar las reglas recomendadas por el desarrollador es una medida irresponsable, como demuestran los números. El dilema no esta en el Autopilot, sino en la naturaleza humana. No lo olvidemos: si las investigaciones de la National Highway Traffic Safety Administration (NHTSA) terminan determinando que Tesla desconecte su Autopilot hasta que los hechos puedan ser oportunamente esclarecidos, la consecuencia no será que se salven vidas, sino que se pierdan varias más. 

El problema, por tanto, está en la naturaleza humana, en el exceso de confianza que lleva a las individuos a creer que una tecnología de ayuda a la conducción que exige sostener la interés en la carretera y las manos en el volante es una tecnología de conducción totalmente autónoma que nos permite relajarnos y dedicarnos a otras cosas en lugar de conducir.

De ahí que la tactica seguida por Google, otro de los enormes implicados en el desarrollo de la conducción autónoma, sea radicalmente diferente: retirar al humano de la ecuación y suprimir toda oportunidad de que interfiera en la misma, de forma que no pasa por la etapa de “ayuda a la conducción” y se lanza directamente a la de “conducción totalmente autónoma”. Directos a etapa IV sin suceder por la III o la II. Una aproximación sin desconfianza interesante, que por el instante ha dado lugar a progresos mucho mas radicales, sin embargo que no quiere mencionar que otras tacticas sean incorrectas, simplemente que habrá que esforzarse en explicar a los visitantes de los productos lo que son y lo que no son. La nueva version del Autopilot, la 2.0, ya esta en camino, y sin desconfianza aprovechará los valiosos documentos de millones de kilómetros de conducción autónoma con un numero mínimo de accidentes para optimizar de forma sensible.

¿Debe Tesla continuar probando su Autopilot cuando existe alguna oportunidad de accidente? Por supuesto, si con ello reduce la oportunidad de otros accidentes que, con la confianza que nos entregan décadas de estadisticas luctuosas, se habrían producido. Es como sirve la ciencia y el desarrollo tecnológico: se prueban cosas, se evalúan los resultados, y se corrige, todo ello dentro de unos límites de prudencia que, en mi opinión, en ningun caso se han sobrepasado. Y la estadística me da la razón radicalmente.

El acceso del progreso esta repleto de víctimas, y en este caso, el acceso de la conducción autónoma cuenta, sin ninguna duda, con mas casos de individuos salvadas de accidentes gracias a la tecnología que muertas en accidentes por su culpa. Revertir el argumento matemático y utilizarlo tendenciosamente para parar el progreso provocaría que varios accidentes que podrían haber sido evitados no lo sean, y que sigamos creyéndonos falsamente mas seguros cuando conducimos nosotros mismos, cuando la enorme verdad es que cuanto mas dejemos crear a la maquina y menos toquemos nosotros, mas seguros estaremos.

Otros accidentes recientes, como el de Albert Scaglione, parecen tener mucho mas que visualizar con la imprudencia y con la rapidez excesiva que con el uso del Autopilot, y de hecho, todo indica que el conductor va a ser considerado encargado y convenientemente sancionado. El anterior, en el que un automóvil colisionó contra un edificio, parece haber tenido que visualizar con una confusión entre pedales y con una aceleración brusca que con un dilema del Autopilot, y tampoco causó víctimas. Sin duda, como con toda tecnología en etapa de adopción, nos disponemos a visualizar un cierto numero de casos en los que los visitantes tratarán de culpar al vehículo, pretenderán que no ha habido ningun dilema por su parte, y terminarán viendo, en la mayor parte de los casos, como un automóvil que registra todas las circunstancias de la conducción con precisión milimétrica completa por contradecir su versión. El eslabón débil no es la tecnología, somos las personas, como demuestran décadas y décadas de accidentes en la carretera. Cualquier obstáculo que se pretenda poner al desarrollo de la conducción autónoma implicará que tardemos mas tiempo en suprimir al torpe humano de la ecuación. Y es eso, no el anunciar una version de un Autopilot, lo que, nos pongamos como nos pongamos, será la verdadera acción irresponsable.

 


Enrique Dans



El mejor vídeo del día Trucos de Android


Nota: La creación de esta noticia le pertenece al autor original que aparece en la firma de más arriba. No hemos eliminado en ningún momento los enlaces oficiales, ni tampoco intentamos perjudicar su posicionamiento en los motores de búsqueda.

El Administrador de QueEsGoogle.Com

Agrega tu comentario