x
Síguenos
Denuncias aquí (809) 762-5555

Mujer demanda a Tesla tras accidente de su camioneta en modo autónomo en Texas

La conductora y su hija sufrieron un accidente grave mientras el vehículo estaba en modo autónomo, desatando críticas sobre la tecnología de Tesla.

Katherine Castillo Payán
Katherine Castillo Payán
19 marzo, 2026 - 3:08 PM
7 minutos de lectura
whatsapp image 2026 03 19 at 3.13.09 pm
Demanda Tesla
Escuchar el artículo
Detener el artículo

Una demanda presentada en Houston acusa a Tesla de exponer a los conductores a riesgos graves a pesar de la publicidad de sus sistemas de conducción asistida. El caso se refiere a un incidente ocurrido el 18 de agosto de 2025, cuando un Cybertruck, supuestamente en modo “Autopilot”, avanzó recto hacia la barrera de un paso elevado en la autopista 69 Eastex, ignorando la trayectoria de la vía. Según la acusación, la conductora, Justine Saint Amour, viajaba con su hija de un año, y el vehículo estuvo a punto de lanzarlas fuera del puente antes de impactar violentamente contra el muro de concreto.

El expediente judicial presentado ante la corte del condado de Harris indica que Saint Amour solicita una indemnización de un millón de dólares, señalando negligencia y responsabilidad de la empresa. Su abogado, Bob Hilliard, detalló que la conductora sufrió graves lesiones, incluyendo dos hernias discales lumbares, una cervical, daño nervioso en la mano derecha y un esguince de tendones en la muñeca, mientras que la niña no sufrió heridas, según confirmaron las investigaciones.

La demanda también cuestiona la publicidad de Tesla, argumentando que el sistema “Full Self-Driving” —vendido como opcional por un costo adicional— se clasifica en realidad como SAE Nivel 2, lo que requiere supervisión constante del conductor y disponibilidad inmediata para intervenir, algo que la defensa considera imposible en situaciones críticas como la vivida por Saint Amour.

image
El caso de Saint Amour podría sentar un precedente clave sobre la regulación y comercialización de la conducción autónoma en Estados Unidos. FUENTE EXTERNA

El accidente, registrado por la cámara interna del vehículo, muestra cómo el Cybertruck se acerca a un tramo en Y del paso elevado sin girar, impactando con fuerza el muro y desprendiendo fragmentos del vehículo. La conductora intentó desconectar el modo automático segundos antes de la colisión, pero el abogado sostiene que no hubo margen real para retomar el control. Según los registros judiciales, la desactivación del “Autopilot” ocurrió apenas cuatro segundos antes del choque, un argumento que Tesla utiliza para responsabilizar a la conductora, aunque su equipo legal insiste en que el resultado ya era inevitable.

El caso refleja la tensión entre las promesas comerciales de autonomía total y las limitaciones técnicas reales del sistema. La demanda sostiene que Tesla incurre en negligencia técnica y publicitaria, destacando que el “Autopilot” funciona más como un control de crucero avanzado que como un sistema de conducción autónoma completo. Además, se señala la falta de un sistema de alerta eficaz que obligue al usuario a mantener atención constante y la ausencia de frenado automático de emergencia adecuado para responder si el software falla. El Cybertruck tampoco cuenta con sensores LiDAR, dependiendo únicamente de cámaras de video para detectar obstáculos.

image
FUENTE EXTERNA

El caso se enmarca en un contexto de creciente escrutinio sobre los sistemas de conducción inteligente de Tesla. En 2021, la presidenta de la National Transportation Safety Board, Jennifer Homendy, calificó la publicidad de la compañía como “engañosa e irresponsable”. Elon Musk, CEO de Tesla, admitió que una versión del software Full Self-Driving “no era muy buena”, lo que ha reforzado las críticas. Además, la compañía enfrenta investigaciones regulatorias en California sobre el uso de los términos “Autopilot” y “Full Self-Driving”, y ha modificado la nomenclatura de algunas funciones para cumplir con la normativa vigente.

También se cuestiona el uso de acuerdos de confidencialidad que podrían limitar los reportes de fallas del sistema, práctica criticada por la National Highway Traffic Safety Administration por interferir con investigaciones de seguridad vial. Tras el accidente, los médicos determinaron que Saint Amour requiere cirugía para tratar las lesiones sufridas, y su abogado afirmó que Tesla “pudo haber evitado esto si no hubiera recortado gastos, lo que hizo inevitable el accidente”.

Este caso podría sentar precedentes importantes sobre los límites legales de la conducción autónoma en Estados Unidos y afectar las estrategias de comercialización y regulación de vehículos autónomos en el futuro.

Más Vistas