De Chinese LLM-ontwikkelaar DeepSeek heeft onlangs zijn R1-series van LLM’s gepresenteerd die zijn geoptimaliseerd voor redeneringstaken. De onderliggende algoritmes zouden zelfs betere prestaties bieden dan bijvoorbeeld OpenAI’s o1. De nieuwe LLM’s van DeepSeek worden aangevoerd door twee algoritmes; R1-Zero en R1. De architectuur van deze modellen is gebaseerd op een Mixture of Experts (MoE)-architectuur met […]
techzine
21-01-2025 12:45