EU ya indaga papel del software Autopilot de Tesla en 11 choques

El Departamento de Transporte revisa accidentes relacionados con las funciones de asistencia a la conducción del fabricante de automóviles eléctricos; la investigación cubre 765 mil unidades

Un regulador autónomo insistió en que la empresa usa en vialidades tecnología no comprobada. Shutterstock
Richard Waters y Lauren Fedor
Washington y San Francisco /

El gobierno de Estados Unidos inició una investigación sobre los accidentes relacionados con la tecnología de coches sin conductor Autopilot de Tesla después de la insistencia de un un regulador independiente que acusó al fabricante de coches eléctricos de liberar en vías públicas tecnología no comprobada.

La Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos (NHTSA, por su sigla en inglés), parte del Departamento de Transporte de EU, reveló que inició una investigación sobre los 11 accidentes de coches Tesla donde estuvieron presentes vehículos de emergencia de primeros auxilios.

En los accidentes, que provocaron un fallecido y 17 lesionados, participaron vehículos que tenían activados los modos Autopilot o Traffic Aware Cruise Control de los vehículos, y ocurrieron en escenarios que tenían marcadores de advertencia visibles para los conductores como conos y flechas, señaló la agencia. 

La medida indica cómo se intensifican las investigaciones sobre el software Autopilot de Tesla, que hasta ahora habían sido encabezadas por la Junta Nacional de Seguridad en el Transporte (NTSB, por su sigla en inglés), un regulador independiente. A diferencia de ese grupo, la NHTSA tiene el poder de obligar a un retiro de los vehículos para su revisión si encuentra fallas, así como hacer regulaciones para todo el sector. 

La investigación cubre prácticamente todos los vehículos Tesla que se vendieron en Estados Unidos en los últimos años, alrededor de 765 mil coches. Las acciones del fabricante de automóviles registraron una caída de más de 4 por ciento después de la noticia. El regulador de seguridad vehicular de China informó en junio que Tesla pasa por un retiro voluntario de vehículos para su revisión de casi 300 mil autos por un problema que tiene que ver con el software Autopilot, aunque Tesla más tarde fue capaz de solucionar el problema. 

La investigación se produce después de las críticas contra los reguladores federales que hizo la NTSB sobre lo que afirma ha sido un “enfoque de no intervención a la supervisión de lo que plantea un riesgo potencial para los automovilistas y usuarios de las carreteras”. 

Elon Musk, director ejecutivo de Tesla, se encuentra bajo las críticas en la industria por afirmar que el software, un sistema avanzado de asistencia al conductor diseñado para manejar cosas como que un vehículo mantenga la velocidad o se quede dentro de un carril, es capaz de asumir el control total del vehículo. 

A principios de este año, el presidente de la NTSB, Robert Sumwalt, dijo que Tesla liberó una “versión beta” de su software para hacer pruebas en las vías públicas con una supervisión limitada. 

En una presentación del 13 de agosto, la NHTSA identificó 11 accidentes de 2018 en los que varios modelos de Tesla se “encontraron con escenas de vehículos de emergencia y posteriormente golpearon uno o más vehículos involucrados en esos escenarios”.

Musk ha sido criticado por su agresiva mercadotecnia del software de Tesla y la decisión de llamarlo Autopilot, a pesar de que es solo un sistema de asistencia para el conductor de nivel 2, muy por debajo del nivel 5 pleno, donde un automóvil puede conducirse solo.

“La NHTSA le recuerda al público que ningún vehículo de motor comercialmente disponible en la actualidad es capaz de conducir por sí mismo”, advirtió ayer la agencia. “Cada vehículo disponible requiere que un conductor humano tenga el control en todo momento, y todas las leyes estatales consideran como responsables a los conductores humanos por la operación de sus vehículos”.

La investigación federal analizará tanto el estado de la tecnología de inteligencia artificial de Tesla como los sistemas que la compañía usa para monitorear a los conductores y asegurarse de que estén prestando atención y puedan tomar el control total de un vehículo cuando sea necesario. Tesla introdujo advertencias adicionales para los conductores después de la primera muerte conocida que ocurrió cuando su sistema Autopilot estaba en uso, en 2016.

“De acuerdo con la misión principal de seguridad de la agencia y para comprender mejor las causas de ciertos accidentes de Tesla, la NHTSA inicia una evaluación preliminar de los sistemas de piloto automático de Tesla y las tecnologías y métodos utilizados para monitorear, ayudar y hacer cumplir la participación del piloto con la conducción mientras Autopilot está en uso”, señaló la NHTSA.
“Ciertas funciones avanzadas de asistencia a la conducción pueden promover la seguridad al ayudar a los conductores a evitar accidentes, pero al igual que con todas las tecnologías y equipos en vehículos de motor, los conductores deben usarlos de manera correcta y responsable”, agregó.

La investigación cubre la mayoría de los vehículos Tesla producidos desde 2014, entre ellos los modelos Model Y, X, S y 3. Musk no respondió de inmediato a una solicitud de comentarios.


LAS MÁS VISTAS