Los recientes accidentes de tráfico de los vehículos autónomos de Tesla han reabierto el debate sobre los dilemas que proponen estas nuevas tecnologías.
“Además de acelerar y guiar el auto a un destino predeterminado por el conductor, estos dispositivos tienen una tarea nada fácil: reconocer las señales de paso de peatones (y la presencia de éstos), detener completamente el auto antes de que se pueda llegar a producir un accidente y maniobrar a través de espacios reducidos, como calles donde hay autos mal estacionados”, aseveraron los especialistas de Cesvi.
Los mencionados siniestros desnudan una realidad incontestable: la tecnología aún está cruda y hacen falta varios años para perfeccionarla. Al igual que el sentido de la vista de un ser humano, que al volante puede ser deslumbrado por conducir con el sol en contraluz, en el caso del accidente fatal con el Tesla S en modo autónomo, los sensores del mencionado vehículo se vieron ‘confundidos´ por la gran superficie blanca de un panel lateral de un acoplado que infortunadamente se cruzó en la ruta, hecho que evitó que se aplicaran los frenos.
Más allá del asunto tecnológico, de la sensibilidad de los instrumentos y de la rapidez de respuesta de los microchips en la programación de los algoritmos, residen quizás los dilemas más delicados: el legal y el ético.
Si bien el asunto legal ya cursa por los órganos legislativos del Primer Mundo, por el momento se sigue discutiendo en Europa si, a pesar de lo avanzada que esté la conducción autónoma, el conductor tiene permitido o no retirar las manos del volante.
Pero en lo que sí hay consenso es en que quien vaya a bordo (o al mando a distancia) es el responsable de lo que suceda, vaya o no activado el sistema autónomo. Es decir, en ningún caso se hace solidaria en la responsabilidad al fabricante del vehículo ni a la autopartista proveedora de la tecnología.
Otro punto por definir es la programación del algoritmo que decide un delicado y sensible asunto, el ético. Los programadores de estas instrucciones por medio de las cuales los sistemas de conducción autónoma actúan, surge el dilema moral de tomar la decisión frente a varias situaciones de conflicto moral. Por ejemplo: si inesperadamente se atraviesa un niño, una señora embarazada y una anciana, (y si no se tiene ni el tiempo ni el espacio para frenar o esquivarlo) ¿por cuál de ellos debe el algoritmo optar por atropellar? ¿Y si evitar la muerte de un 3ero significa sacrificar la vida del dueño del auto? Todo un dilema, porque es una decisión que se toma en la sala de programación.
Las automotrices alemanas han anunciado sus lanzamientos de vehículos autónomos para los años 2020 y 2021, por lo que para esas fechas ya el margen de error, (que siempre lo hay) deberá ser mínimo para que la conducción autónoma no tenga fantasmas en la espalda.
¿Qué opinan ustedes?