Onderzoekers van Anthropic, het UK AI Security Institute en het Alan Turing Institute ontdekten dat LLM’s al met een kleine hoeveelheid poisoned data kwetsbaar kunnen worden gemaakt. Uit nieuwe experimenten blijkt dat ongeveer 250 malicious documenten voldoende zijn om een backdoor te creëren, ongeacht de omvang van het model of de hoeveelheid trainingsdata. De studie, […]
techzine
10-10-2025 12:25