<div dir="ltr"><div><div class="gmail_default" style="font-size:large"><span style="color:initial;font-size:small">NVidia has launched a new self driving technology platform. The announcement came at CES. Here is an overview with link and text. This is going to be bringing self driving technology to a lot of vehicles.</span></div><br>Article lInk:<br><a href="https://electrek.co/2026/01/05/nvidia-unveils-open-source-ai-for-autonomous-driving-ships-in-mercedes-benz-cla-in-q1-2026/">https://electrek.co/2026/01/05/nvidia-unveils-open-source-ai-for-autonomous-driving-ships-in-mercedes-benz-cla-in-q1-2026/</a><br><br>Article TExt:<br><br>Nvidia unveils open-source AI for autonomous driving, ships in Mercedes-Benz CLA in Q1 2026<br><br>Avatar for Fred Lambert<br>Fred Lambert<br> | Jan 5 2026 - 5:53 pm PT<br>90 Comments<br><br>Nvidia (NVDA) held its CES 2026 keynote today, and as expected, Jensen Huang dropped a massive amount of news on the autonomous driving front. The biggest takeaway? Nvidia is moving beyond just \u201cperceiving\u201d the road to \u201creasoning\u201d about it with a new family of open-source models called Alpamayo, which will power new autonomous and driver-assistance features.<br><br>Starting with Mercedes-Benz as soon as this quarter.<br><br>Here\u2019s the breakdown of everything Nvidia announced for self-driving technology today.<br><br>The \u2018Alpamayo\u2019 Reasoning Model<br>Nvidia is calling this the \u201cChatGPT moment for physical AI.\u201d<br><br>The company unveiled Alpamayo, a family of open-source AI models designed to solve the \u201clong tail\u201d problem of autonomous driving, those rare, weird edge cases that usually cause self-driving stacks to disengage or fail.<br><br>The flagship is Alpamayo 1, a 10-billion-parameter Vision-Language-Action (VLA) model. Unlike traditional AV stacks that just detect objects and plan a path, Alpamayo uses \u201cchain-of-thought\u201d reasoning. It processes video input and generates a trajectory, but crucially, it also outputs the logic behind its decision.<br><br>Jensen Huang explained that the model can \u201cthink through rare scenarios\u201d and explain its driving decisions.<br><br>To sweeten the deal for developers, Nvidia is going the open-source route. They are releasing:<br><br>Alpamayo 1 model weights on Hugging Face.<br>AlpaSim, an open-source end-to-end simulation framework.<br>Physical AI Open Datasets, containing over 1,700 hours of driving data covering complex scenarios.<br>This is a clear play to become the default \u201cAndroid of Autonomy\u201d while Tesla continues to keep its Full Self-Driving (FSD) stack completely closed.<br><br>Mercedes-Benz CLA: the first with NVIDIA\u2019s new AV stack<br>We\u2019ve been hearing about the Nvidia-Mercedes partnership for years, but today we got a concrete timeline.<br><br>Huang confirmed that the 2025 Mercedes-Benz CLA will be the first production vehicle to ship with Nvidia\u2019s entire AV stack, including the new Alpamayo reasoning capabilities.<br><br>While it\u2019s officially launching as a \u201cLevel 2+\u201d system, much like Tesla\u2019s \u2018Full Self-Driving\u2019, which in reality is a level 2 driver assistance system as it requires attention from the driver at all times, it appears that the goal is to push toward level 4 capabilities.<br><br>Here\u2019s how Mercedes describes the system right now:<br><br>With Mercedes-Benz\u2019s MB.DRIVE ASSIST PRO, driving assistance and navigation merge to create a completely new and safe driving experience. At the press of a button, the vehicle can help navigate through the city streets \u2013 from the parking lot to the destination \u2013 with advanced SAE-Level 2 assistance. Thanks to Mercedes-Benz\u2019s cooperative steering approach, steering adaptions are possible at any time without deactivating the system.<br><br>The sensor stack consists of 30 sensors, including 10 cameras, 5 radar sensors and 12 ultrasonic sensors.<br><br>The Hardware: Vera Rubin<br><br>Powering all this backend training and simulation is Nvidia\u2019s new Vera Rubin platform, the successor to Blackwell. It\u2019s a six-chip AI platform that Nvidia claims is now in full production. While much of this is data-center focused, the \u201cRubin\u201d GPUs and \u201cVera\u201d CPUs are what will likely be training the next iterations of Alpamayo that end up in your car.<br><br>Electrek\u2019s Take<br>This is a very interesting move from Nvidia.<br><br>The fact that Alpamayo outputs a \u201creasoning trace\u201d is huge for regulators who are terrified of black-box AI models crashing cars without us knowing why.<br><br>The open-source aspect is also brilliant. By giving away the model and the simulator, Nvidia ensures that startups and other automakers get hooked on their CUDA ecosystem. If you can\u2019t build an autonomous system by yourself (which, let\u2019s be honest, most legacy automakers can\u2019t), you now just grab Alpamayo and run it on Nvidia chips.<br><br>As for the Mercedes CLA, \u201cLevel 2+\u201d that feels like plans to deliver something like Tesla has with FSD without the promise of unsupervised self-driving, something Tesla has consistently failed to deliver despite selling it to its customers since 2016.<br><br>If Mercedes actually ships a car in Q1 that can have similar capabilities as Tesla\u2019s FSD, and it is based on an open-sourced system that any automaker can buy, it could shake up the industry and start to commoditize this idea of \u201clevel 2+\u201d autonomous systems.<span class="gmail_default" style="font-size:large"></span></div></div>