El propietario de un Tesla dice que su automóvil intentó llevarlo a un lago mientras usaba el último software de “conducción totalmente autónoma” del fabricante de automóviles. El incidente, capturado en video y publicado en las redes sociales, se ha vuelto viral con más de 1 millón de visitas, sumándose a una lista creciente de casos extremos peligrosos de FSD que plantean serias dudas sobre la preparación del sistema.
Daniel Milligan publicó el vídeo en X el sábado, etiquetando tanto a Tesla como a Ashok Elluswamy, jefe de IA del piloto automático de Tesla, y escribió: «¡Mi Tesla intentó llevarme a un lago hoy!». El vehículo ejecutaba la versión 14.2.2.4 de FSD (compilación 2025.45.9.1), una de las últimas actualizaciones que Tesla ha introducido en su flota. La publicación acumuló más de 1,2 millones de visitas, 9.000 me gusta y cientos de publicaciones repetidas en cuestión de horas:
Otro peligroso incidente de FSD en una larga fila
El incidente del lago es el último de un patrón de fallas alarmantes de “conducción totalmente autónoma” que Electrek ha estado siguiendo durante años. En mayo de 2025, un Tesla con FSD se salió repentinamente de la carretera y volcó un automóvil en un accidente que el conductor dijo que no podía evitar. En diciembre, un conductor de Tesla en China chocó de frente contra otro vehículo durante una transmisión en vivo que demostraba las características del FSD, el sistema inició un cambio de carril hacia el tráfico que venía en sentido contrario.
Dos influencers de Tesla que intentaron el tan publicitado viaje FSD de costa a costa de Elon Musk ni siquiera lograron salir de California antes de estrellarse contra los escombros de la carretera.
La compilación FSD v14.2.2.4 involucrada en el incidente del lago se lanzó a fines de enero de 2026. Tesla no publicó nuevas notas de la versión para esta versión en comparación con la v14.2.2.3 anterior, caracterizándola como una compilación pulida y afinada. La serie v14.2 actualizó el codificador de visión de red neuronal de Tesla para ofrecer características de mayor resolución y mayor manejo para vehículos de emergencia, pero claramente persisten casos extremos peligrosos.
Bajo escrutinio regulatorio
El incidente llega cuando el sistema FSD de Tesla enfrenta una creciente presión regulatoria. En octubre de 2025, la NHTSA inició una amplia investigación sobre 2,88 millones de vehículos Tesla después de conectar 58 incidentes con FSD, incluidos 14 accidentes y 23 lesiones. La investigación se centra específicamente en FSD que se salta semáforos en rojo y conduce en carriles opuestos de tráfico, el tipo de fallas fundamentales que no deberían ocurrir en un sistema por el que Tesla cobra $99 por mes.
La NHTSA también abrió una investigación separada sobre el hecho de que Tesla no informó adecuadamente los accidentes del piloto automático y el FSD a los reguladores de manera oportuna. Ha habido más de 50 muertes relacionadas con accidentes que involucraron los sistemas de asistencia al conductor de Tesla (piloto automático y FSD).
Mientras tanto, el programa Robotaxi “no supervisado” de Tesla en Austin ha demostrado ser todo menos sin supervisión. Hoy publicamos una actualización de estado del programa Robotaxi 8 meses después del lanzamiento.
La opinión de Electrek
Es casi como si Tesla hubiera estado entrenando la última actualización de FSD en este episodio de The Office.
Seguimos diciéndolo y incidentes como este lo siguen demostrando: la “conducción autónoma total” de Tesla no debe comercializarse como tal. Un sistema que intenta llevarte a un lago no es «totalmente autónomo» según ninguna definición razonable de esas palabras.
El problema no es sólo que el FSD cometa errores, todos los sistemas de asistencia al conductor tienen limitaciones. El problema es la brecha entre lo que vende Tesla y lo que realmente ofrece FSD.
Tesla trasladó FSD a un modelo de sólo suscripción en febrero, admitiendo efectivamente que el sistema es un servicio en lugar del activo como se vendió durante años. Musk ha estado prometiendo FSD “sin supervisión” desde 2016 y, sin embargo, aquí estamos en 2026 viendo videos de Teslas intentando nadar.
Como señalamos en nuestra revisión de FSD v14, el sistema es el sistema de Nivel 2 más impresionante del mercado, pero sigue estando lejos de lo que Tesla ha estado vendiendo a sus clientes durante casi una década. Con las investigaciones de la NHTSA acumulándose y los incidentes que continúan volviéndose virales, los reguladores eventualmente tendrán que decidir si Tesla puede seguir llamando a esto «Conducción totalmente autónoma» mientras los autos de las personas intentan llevarlos a nadar inesperadamente.
Creo que nos acercamos al final de esta era, y el cambio de Tesla a un servicio de sólo suscripción lo presagia.
Si sólo ofrece una suscripción mensual en lugar de un paquete con capacidades futuras, no tiene que prometer que dejará de estar supervisado.





