Entrada

Tesla Dojo: el ascenso y caída del supercomputador de inteligencia artificial de Elon Musk

Tesla Dojo: el ascenso y caída del supercomputador de inteligencia artificial de Elon Musk

Imagen de un Tesla rojo sobre un clúster de entrenamiento de supercomputadora AI.

Créditos de la imagen: Bryce Durbin/TechCrunch

Durante años, Elon Musk ha hablado del potencial de Dojo, la supercomputadora AI que se suponía que sería la piedra angular de las ambiciones de AI de Tesla. Era lo suficientemente importante para Musk que en julio de 2024, dijo que el equipo de AI de la empresa “doblaría la apuesta” en Dojo en el camino hacia el evento de revelación de robotaxis de Tesla, que tuvo lugar en octubre.

Después de seis años de expectativas, Tesla decidió en agosto de 2025 cerrar Dojo y disolver el equipo detrás de la supercomputadora. Dentro de semanas de haber proyectado que Dojo 2, el segundo superclúster de Tesla que se suponía que se construiría en los chips D2 de la empresa, alcanzaría la escala en 2026, Musk cambió de rumbo, declarando que era “un callejón sin salida evolutivo”.

Este artículo originalmente tenía como objetivo explicar qué era Dojo y cómo podría ayudar a Tesla a lograr la conducción autónoma completa, robots humanoides autónomos, autonomía de semiconductores y más. Ahora, puedes pensar en él más como un obituario de un proyecto que convenció a muchos analistas e inversores de que Tesla no era una empresa de automóviles - era una empresa de AI.

Dojo era la supercomputadora personalizada de Tesla diseñada para entrenar sus redes neuronales “Full Self-Driving”.

Mejorar Dojo fue parte de la meta de Tesla para alcanzar la conducción autónoma completa y llevar un robotaxi al mercado. FSD (Supervisado) es el sistema avanzado de asistencia al conductor de Tesla que hoy está en cientos de miles de vehículos Tesla y puede realizar algunas tareas de conducción automatizada, pero aún requiere que un humano esté atento al volante. También es la base de la tecnología similar que potencia el servicio de robotaxis limitado de Tesla que la empresa lanzó en Austin este junio utilizando SUVs Model Y.

Aunque Dojo comenzó a dar señales de vida, Tesla no atribuyó sus éxitos en conducción autónoma - que fueron controvertidos - a la supercomputadora. De hecho, Musk y Tesla apenas mencionaron Dojo en el último año. En agosto de 2024, Tesla comenzó a promover Cortex, el nuevo superclúster de entrenamiento de AI de la empresa que se está construyendo en la sede de Tesla en Austin para resolver problemas de AI en el mundo real, que Musk ha dicho que tendría “almacenamiento masivo para el entrenamiento en video de FSD y Optimus”.

En el informe de resultados de Tesla del cuarto trimestre de 2024, la empresa compartió actualizaciones sobre Cortex, pero nada sobre Dojo. No está claro si el cierre de Dojo afecta a Cortex.

La respuesta al cierre de Dojo ha sido mixta. Algunos lo ven como otro ejemplo de Musk haciendo promesas que no puede cumplir, que ocurre en un momento de caída de las ventas de vehículos eléctricos y un despliegue de robotaxis sin entusiasmo. Otros dicen que el cierre no fue un fracaso, sino un cambio estratégico de un hardware autónomo de alto riesgo a un camino más delgado que depende de socios para el desarrollo de chips.

La historia de Dojo revela lo que estaba en juego, dónde falló el proyecto y qué significa su cierre para el futuro de Tesla.

Tesla disolvió su equipo Dojo y cerró el proyecto a mediados de agosto de 2025. Dojo, su líder, Peter Bannon, también dejó la empresa, siguiendo la partida de alrededor de 20 trabajadores que fundaron su propia empresa de chips y infraestructura de AI llamada DensityAI.

Los analistas han señalado que perder talento clave puede derribar rápidamente un proyecto, especialmente uno altamente especializado y tecnológico interno.

El cierre llegó unas semanas después de que Tesla firmara un acuerdo de $16.5 mil millones con Samsung para obtener sus chips AI6 de próxima generación. El chip AI6 es la apuesta de Tesla para un diseño de chip que puede escalar desde alimentar FSD y los robots humanoides Optimus de Tesla hasta el entrenamiento de alta rendimiento de AI en centros de datos.

“Una vez que quedó claro que todos los caminos convergían en AI6, tuve que cerrar Dojo y tomar decisiones difíciles de personal, ya que Dojo 2 ahora era un callejón sin salida evolutivo”, dijo Musk en X, la plataforma de redes sociales que posee. “Dojo 3, en cierto sentido, vive en la forma de un gran número de sistemas de chips AI6 en una sola placa”.

Créditos de la imagen: SUZANNE CORDEIRO/AFP via Getty Images / Getty Images

Musk ha insistido en que Tesla no es solo una empresa de automóviles, ni siquiera un proveedor de paneles solares y sistemas de almacenamiento de energía. En cambio, ha presentado a Tesla como una empresa de AI, una que ha descifrado el código de los automóviles autónomos imitando la percepción humana.

La mayoría de las empresas que construyen tecnología de vehículos autónomos se basan en una combinación de sensores para percibir el mundo - como lidar, radar y cámaras - así como mapas de alta definición para localizar el vehículo. Tesla cree que puede lograr la conducción autónoma completa utilizando solo cámaras para capturar datos visuales y luego usar redes neuronales avanzadas para procesar esos datos y tomar decisiones rápidas sobre cómo debe comportarse el coche.

La idea es que el software de AI entrenado en Dojo eventualmente se distribuirá a los clientes de Tesla a través de actualizaciones por aire. La escala de FSD también significa que Tesla ha podido recopilar millones de millas de video que utiliza para entrenar FSD. La idea es que cuanto más datos pueda recopilar Tesla, más cerca estará de lograr realmente la conducción autónoma completa.

Sin embargo, algunos expertos de la industria dicen que podría haber un límite en el enfoque de fuerza bruta de lanzar más datos a un modelo y esperar que se vuelva más inteligente.

“Primero, hay una restricción económica, y pronto será demasiado caro hacerlo”, dijo Anand Raghunathan, profesor de ingeniería eléctrica y de computación de la Universidad de Purdue en Silicon Valley, a TechCrunch. Además, dijo, “algunas personas afirman que podríamos estar a punto de agotar los datos significativos para entrenar los modelos. Más datos no significa necesariamente más información, por lo que depende de si ese dato tiene información útil para crear un mejor modelo y si el proceso de entrenamiento puede extraer realmente esa información en un mejor modelo”.

Raghunathan dijo que, a pesar de estas dudas, la tendencia de más datos parece estar aquí por el corto plazo al menos. Y más datos significa más potencia de cómputo necesaria para almacenar y procesar todo para entrenar los modelos de AI de Tesla.

¿Qué es una supercomputadora?

Dojo era el sistema de supercomputadora de Tesla diseñado para funcionar como un campo de entrenamiento para AI, específicamente FSD. El nombre es un guiño al espacio donde se practican las artes marciales.

Una supercomputadora está compuesta por miles de computadoras más pequeñas llamadas nodos. Cada uno de esos nodos tiene su propio CPU (unidad central de procesamiento) y GPU (unidad de procesamiento gráfico). El primero maneja la gestión general del nodo, y el segundo se encarga de las tareas complejas, como dividir las tareas en múltiples partes y trabajarlas simultáneamente.

Los GPUs son esenciales para las operaciones de aprendizaje automático como las que alimentan el entrenamiento de FSD en simulación. También alimentan los grandes modelos de lenguaje, lo que ha convertido a Nvidia en la empresa más valiosa del planeta.

Incluso Tesla compra GPUs de Nvidia para entrenar su AI (más sobre eso más tarde).

¿Por qué necesitaba Tesla una supercomputadora?

La visión de Tesla solo con cámaras fue la razón principal por la que Tesla necesitaba una supercomputadora. Las redes neuronales detrás de FSD se entrenan en grandes cantidades de datos de conducción para reconocer y clasificar objetos alrededor del vehículo y luego tomar decisiones de conducción. Esto significa que cuando FSD está activado, las redes neuronales deben recopilar y procesar datos visuales continuamente a velocidades que coincidan con las capacidades de reconocimiento de profundidad y velocidad de un ser humano.

En otras palabras, Tesla se propone crear una réplica digital del córtex visual y la función cerebral humana.

Para lograrlo, Tesla necesita almacenar y procesar todos los datos de video recopilados de sus coches en todo el mundo y ejecutar millones de simulaciones para entrenar su modelo en los datos.

Tesla dependía principalmente de Nvidia para alimentar su computadora de entrenamiento Dojo actual, pero no quería tener todos sus huevos en una sola canasta - no solo porque los chips de Nvidia son caros. Tesla había esperado crear algo mejor que aumentara la banda ancha y disminuyera los tiempos de latencia. Por eso la división de AI de la empresa decidió desarrollar su propio programa de hardware personalizado que pretendía entrenar modelos de AI de manera más eficiente que los sistemas tradicionales.

En el centro de ese programa estaba el chip D1 de Tesla, que la empresa dijo que estaba optimizado para cargas de trabajo de AI.

Ganesh Venkataramanan, ex director senior de hardware de Autopilot, presentando el módulo de entrenamiento D1 en el AI Day de Tesla en 2021.

Ganesh Venkataramanan, ex director senior de hardware de Autopilot, presentando el módulo de entrenamiento D1 en el AI Day de Tesla en 2021.

Tesla, como Apple, cree que el hardware y el software deben diseñarse para trabajar juntos. Por eso Tesla estaba trabajando para alejarse del hardware de GPU estándar y diseñar sus propios chips para alimentar Dojo.

Tesla presentó su chip D1, un cuadrado de silicio del tamaño de una palma, en el AI Day de 2021. El D1 entró en producción alrededor de julio de 2023.

La empresa Taiwan Semiconductor Manufacturing Company (TSMC) fabricó los chips utilizando nodos de semiconductores de 7 nanómetros. El D1 tiene 50 mil millones de transistores y una gran superficie de 645 milímetros cuadrados, según Tesla. Esto significa que el D1 promete ser extremadamente potente y eficiente y capaz de manejar tareas complejas rápidamente.

El D1 no era tan potente como el chip A100 de Nvidia.

Tesla estaba trabajando en un chip D2 de próxima generación que pretendía resolver cuellos de botella de flujo de información. En lugar de conectar los chips individuales, el D2 pondría todo el módulo Dojo en un solo wafer de silicio.

Tesla nunca confirmó cuántos chips D1 había pedido o recibido. La empresa tampoco proporcionó un cronograma para cuánto tiempo llevaría que las supercomputadoras Dojo funcionaran con chips D1.

El robot humanoide Optimus Prime II de Tesla en WAIC en Shanghai, China, el 7 de julio de 2024.

La esperanza de Tesla era que al tomar el control de su propia producción de chips, podría añadir grandes cantidades de potencia de cómputo a los programas de entrenamiento de AI rápidamente y a bajo costo.

También significaba no tener que depender de los chips de Nvidia en el futuro, que son cada vez más caros y difíciles de obtener. Ahora, Tesla está apostando todo por socios - con Nvidia, AMD y Samsung, que construirán su próximo chip AI6.

Durante la llamada a resultados del segundo trimestre de 2024 de Tesla, Musk dijo que la demanda de hardware de Nvidia era “tan alta que a menudo es difícil obtener los GPUs”. Dijo que estaba “muy preocupado por poder obtener GPUs estables cuando los necesitemos, y creo que esto requiere que pongamos mucho más esfuerzo en Dojo para asegurarnos de que tenemos la capacidad de entrenamiento que necesitamos”.

Dojo fue una apuesta arriesgada, una que Musk heduró varias veces diciendo que Tesla podría no tener éxito.

En el largo plazo, Tesla jugó con la idea de crear un nuevo modelo de negocio basado en su división de AI, con Musk incluso diciendo durante una llamada a resultados del segundo trimestre de 2024 que veía “un camino para ser competitivo con Nvidia con Dojo”. Mientras que el D1 estaba más adaptado para el etiquetado de visión por computadora y el entrenamiento de Tesla - útil para FSD y Optimus - no sería útil para mucho más. Las versiones futuras tendrían que ser más adaptadas al entrenamiento de AI general, dijo Musk.

El problema que Tesla podría haber encontrado es que casi todo el software de AI existente ha sido escrito para funcionar con GPUs. Usar chips Dojo para entrenar modelos de AI generales requeriría reescribir el software.

Es decir, a menos que Tesla alquilara su potencia de cómputo, similar a cómo AWS y Azure alquilan capacidades de cómputo en la nube - una idea que emocionó a los analistas. Un informe de septiembre de 2023 de Morgan Stanley predijo que Dojo podría añadir $500 mil millones al valor de mercado de Tesla desbloqueando nuevos flujos de ingresos en forma de robotaxis y servicios de software.

En resumen, los chips Dojo eran una póliza de seguro para la empresa, pero una que podría haber dado dividendos.

El CEO de Nvidia, Jensen Huang, y el CEO de Tesla, Elon Musk, en la GPU Technology Conference en San José, California.

Musk a menudo proporcionaba informes de progreso, pero muchas de sus metas para Dojo nunca se cumplieron.

Por ejemplo, Musk sugirió en junio de 2023 que Dojo había estado en línea y realizando tareas útiles durante unos meses. “Alrededor del mismo tiempo, Tesla dijo que esperaba que Dojo fuera uno de los cinco supercomputadoras más potentes para febrero de 2024 y había planeado que la potencia total alcanzara 100 exaflops en octubre de 2024, lo que requeriría aproximadamente 276,000 D1s, o alrededor de 320,500 GPUs A100 de Nvidia”.

Tesla nunca proporcionó una actualización o ninguna información que sugiriera que alguna vez había alcanzado estos objetivos.

Tesla y Musk hicieron numerosas promesas para Dojo, incluyendo algunas financieras. Por ejemplo, Tesla se comprometió en enero de 2024 a gastar $500 millones en construir una supercomputadora Dojo en su gigafábrica de Buffalo, Nueva York, y ya había gastado $314 millones de ese dinero, según un informe de 2024.

Justo después de la llamada a resultados del segundo trimestre de 2024 de Tesla, Musk publicó fotos de Dojo 1 en X, diciendo que tendría “alrededor de 8k H100-equivalentes de entrenamiento en línea para el final del año. No es masivo, pero tampoco trivial”.

A pesar de toda esta actividad - especialmente por parte de Musk en X y en llamadas a resultados - la mención de Dojo se interrumpió abruptamente en agosto de 2024. Y la conversación se centró en Cortex.

Durante la llamada a resultados del cuarto trimestre de 2024 de Tesla, la empresa dijo que había completado el despliegue de Cortex, “un ~50k H100 de entrenamiento en clúster en Gigafactory Texas” y que Cortex ayudó a habilitar V13 de FSD supervisado.

En el segundo trimestre de 2025, Tesla notó que había ampliado la potencia de entrenamiento de AI con un adicional de 16k H200 GPUs en Gigafactory Texas, llevando Cortex a un total de 67k H100 equivalentes. Durante esa misma llamada a resultados, Musk dijo que esperaba tener un segundo clúster Dojo funcionando “a escala” en 2026. También insinuó posibles redundancias.

“Pensando en Dojo 3 y el chip AI6 de inferencia, parece que intuitivamente queremos encontrar una convergencia allí, donde básicamente es el mismo chip”, dijo Musk.

Unas semanas después, cambió de opinión y disolvió el equipo Dojo.

TechCrunch confirmó en agosto de 2025 que Tesla aún planea comprometer $500 millones con una supercomputadora en Buffalo - pero no será Dojo.

Esta historia se publicó por primera vez el 3 de agosto de 2024. El artículo se actualizó por última vez el 2 de septiembre de 2025 con nueva información sobre la decisión de Tesla de cerrar Dojo.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.