Nvidia laat MoE-modellen tien keer sneller draaien

Nvidia publiceert nieuwe benchmarkresultaten waaruit blijkt dat zijn nieuwste AI-serverplatform, de GB200 NVL72, de prestaties van moderne mixture-of-expertsmodellen (MoE) aanzienlijk verbetert. Volgens het bedrijf draaien recente modellen, waaronder Moonshot AI’s Kimi K2 Thinking en modellen van DeepSeek, tot tien keer sneller dan op de vorige generatie systemen. Mixture-of-expertsmodellen zijn gebaseerd op het idee dat niet […]
techzine
04-12-2025 11:34