CES: Nvidia opensourcet tech voor robo-auto’s en -taxi’s

Nvidia brengt de toekomst van autonoom rijdende personenauto’s en taxi’s een stap dichterbij. De chipfabrikant brengt nieuwe software uit als opensource. Anders dan gebruikelijk bij de meeste zelfrijdende auto’s is het system niet gebaseerd op input uit lidar, maar gebruikt het gewoon kijkende camera’s. De data uit die camera’s wordt vervolgens in de auto verwerkt en doorgevoerd naar de besturing. Veel zelfrijdende auto’s bewegen zich vandaag de dag in een geografische ruimte die ze ‘kennen’. Gebieden waar ze op getraind zijn. De Nvidia-technologie heeft dat niet nodig. Die kun je overal op de weg zetten en de ogen en voertuigkennis zijn voldoende om de passagier van A naar B te brengen. Tesla hanteert hetzelfde concept als Nvidia en werd tot op heden als een vreemde eend in de bijt beschouwd. Elon Musk ziet de nieuwkomer vooralsnog niet als wezenlijke concurrent. Nvidia maakte eerder deze week op de elektronicabeurs CES in Las Vegas bekend Alpamayo R1 op Huggin Face uit te brengen en AlphaSim op Github. Die laatste biedt een blauwdruk voor fabrikanten die vergaarde ritgegevens (video) willen analyseren de robowagens te verbeteren. Met deze stap verbreedt Nvidia zijn werkterrein weer een stukje buiten het domein van computers en datacentra. Het is een leidende positie aan het bouwen in de integratie van AI-hardware en -software: AI in de fysieke wereld. De nieuwe technologie faciliteert L2++ tot L4 autonomie van voertuigen. Dagelijks veegt Nvidia een miljoen video-snippets op van de Amerikaanse openbare wegen die het gebruik om ter analyse en verbetering van zijn modellen en technologie. Die capaciteit moet in de loop van 2026 aanzienlijk groeien. Mercedes-Bens is de eerste hardwarwepartner met wie de nieuwe technologie wordt toegepast, maar er staan al meerdere andere fabrikanten opgelijnd om het ook in te voeren. Twee demo’s: Presentatie Nvidia ceo Jensen Huang
emerce
07-01-2026 09:45