Publicidad

KSBY noticias

Tres choques que involucraron a Teslas que mataron a tres personas han aumentado el escrutinio del sistema de conducción del piloto automático de la compañía solo unos meses antes de que el CEO, Elon Musk, haya planeado poner autos totalmente autónomos en las calles.

El domingo, un sedán Tesla Model S salió de una autopista en Gardena, California, a gran velocidad, pasó una luz roja y golpeó un Honda Civic, matando a dos personas adentro, dijo la policía.

El mismo día, un Tesla Model 3 golpeó un camión de bomberos estacionado en una autopista de Indiana, matando a un pasajero en el Tesla.

Y el 7 de diciembre, otro Modelo 3 golpeó un crucero policial en una carretera de Connecticut, aunque nadie resultó herido.

La unidad especial de investigación de accidentes de la Administración Nacional de Seguridad del Tráfico en Carreteras está investigando el accidente de California. La agencia no ha decidido si su unidad de choque especial revisará el choque ocurrido el domingo cerca de Terre Haute, Indiana. En ambos casos, las autoridades aún no han determinado si se estaba utilizando el sistema de piloto automático de Tesla.

NHTSA también está investigando el accidente de Connecticut, en el que el conductor le dijo a la policía que el automóvil estaba operando en piloto automático, un sistema Tesla diseñado para mantener un automóvil en su carril y una distancia segura de otros vehículos. El piloto automático también puede cambiar de carril por sí solo.

Tesla ha dicho repetidamente que su sistema de piloto automático está diseñado solo para ayudar a los conductores, que aún deben prestar atención y estar listos para intervenir en todo momento. La compañía sostiene que Teslas con piloto automático es más seguro que los vehículos sin él, pero advierte que el sistema no previene todos los choques.

Aun así, expertos y defensores de la seguridad dicen que una serie de accidentes de Tesla plantea serias dudas sobre si los conductores se han vuelto demasiado dependientes de la tecnología de Tesla y si la compañía hace lo suficiente para garantizar que los conductores sigan prestando atención. Algunos críticos han dicho que ya es hora de que NHTSA deje de investigar y tome medidas, como obligar a Tesla a asegurarse de que los conductores presten atención cuando se utiliza el sistema.

NHTSA ha iniciado investigaciones sobre 13 accidentes de Tesla que datan de al menos 2016 en los que la agencia cree que Autopilot estaba operando. La agencia aún no ha emitido ningún reglamento, aunque está estudiando cómo debe evaluar sistemas similares de «asistencia avanzada al conductor».

«En algún momento, la pregunta es: ¿Cuánta evidencia se necesita para determinar que la forma en que se utiliza esta tecnología es insegura?», Dijo Jason Levine, director ejecutivo del Centro sin fines de lucro para la Seguridad del Automóvil en Washington. «En este caso, espero que estas tragedias no sean en vano y conduzcan a algo más que una investigación por parte de NHTSA».

Levine y otros han pedido a la agencia que exija a Tesla que limite el uso del piloto automático a autopistas divididas principalmente en cuatro carriles sin tráfico cruzado. También quieren que Tesla instale un mejor sistema para monitorear los controladores y asegurarse de que estén prestando atención todo el tiempo. El sistema de Tesla requiere que los conductores coloquen sus manos en el volante. Pero los investigadores federales han descubierto que este sistema permite a los conductores desconectarse durante demasiado tiempo.

Tesla planea usar las mismas cámaras y sensores de radar, aunque con una computadora más potente, en sus vehículos totalmente autónomos. Los críticos cuestionan si esos autos podrán conducir de manera segura sin poner en peligro a otros automovilistas.

Las dudas sobre el sistema de piloto automático de Tesla han persistido durante mucho tiempo. En septiembre, la Junta Nacional de Seguridad del Transporte, que investiga los accidentes de transporte, emitió un informe que decía que una falla de diseño en el piloto automático y la falta de atención del conductor se combinaron para hacer que un Tesla Model S se estrellara contra un camión de bomberos estacionado en una autopista del área de Los Ángeles en enero de 2018 La junta determinó que el conductor dependía demasiado del sistema y que el diseño del piloto automático le permitió desconectarse de la conducción durante demasiado tiempo.

Además de las muertes el domingo por la noche, tres accidentes fatales en los EE. UU. Desde 2016, dos en Florida y uno en Silicon Valley, involucraron vehículos que utilizan el piloto automático.

David Friedman, vicepresidente de defensa de Consumer Reports y ex administrador interino de la NHTSA, dijo que la agencia debería haber declarado defectuoso el piloto automático y solicitó un retiro después de un accidente en Florida en 2016 que mató a un conductor. Ni el sistema de Tesla ni el conductor habían frenado antes de que el automóvil se metiera debajo de un semirremolque que había girado frente al automóvil.

«No necesitamos que más personas salgan lastimadas para que sepamos que hay un problema y que Tesla y NHTSA no han logrado solucionarlo», dijo Friedman.

Además de NHTSA, los estados pueden regular los vehículos autónomos, aunque muchos han decidido que desean fomentar las pruebas.

En el accidente de 2016, NHTSA cerró su investigación sin buscar una retirada. Friedman, que no estaba en NHTSA en ese momento, dijo que la agencia determinó que el problema no ocurría con frecuencia. Pero dijo que ese argumento ha sido desacreditado.

Friedman dijo que es previsible que algunos conductores no presten atención a la carretera mientras usan el piloto automático, por lo que el sistema está defectuoso.

«Al público se le debe alguna explicación por la falta de acción», dijo. «Simplemente diciendo que continúan investigando: esa línea ha desgastado su utilidad y su credibilidad».

En una declaración, NHTSA dijo que se basa en datos para tomar decisiones, y si encuentra que algún vehículo representa un riesgo de seguridad irracional, «la agencia no dudará en tomar medidas». NHTSA también ha dicho que no quiere intervenir en el forma de tecnología dado su potencial para salvar vidas.

Se dejaron mensajes el jueves en busca de comentarios de Tesla.

Raj Rajkumar, profesor de ingeniería eléctrica e informática en la Universidad Carnegie Mellon, dijo que es probable que el accidente de Tesla en California del domingo estuviera operando en el piloto automático, que en el pasado se confundió por las líneas de carril. Él especuló que la línea del carril era más visible para la rampa de salida, por lo que el automóvil tomó la rampa porque parecía un carril de autopista. También sugirió que el conductor podría no haber prestado mucha atención.

«Ningún ser humano normal no reduciría la velocidad en un carril de salida», dijo.

En abril, Musk dijo que esperaba comenzar a convertir los autos eléctricos de la compañía en vehículos totalmente autónomos en 2020 para crear una red de taxis robóticos para competir contra Uber y otros servicios de transporte.

En ese momento, los expertos dijeron que la tecnología no está lista y que los sensores de cámara y radar de Tesla no eran lo suficientemente buenos para un sistema de conducción autónoma. Rajkumar y otros dicen que accidentes adicionales han demostrado que eso es cierto.

Muchos expertos dicen que no son conscientes de los accidentes fatales que involucran sistemas similares de asistencia al conductor de General Motors, Mercedes y otros fabricantes de automóviles. GM monitorea a los conductores con cámaras y apagará el sistema de conducción si no miran la carretera.

«Tesla no está cerca de ese estándar», dijo.

Él predijo más muertes relacionadas con Teslas si NHTSA no toma medidas.

«Esto es muy desafortunado», dijo. «Simplemente trágico».

Publicidad

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.