Onderzoekers van NeuralTrust zijn erin geslaagd om GPT-5 binnen slechts 24 uur na de lancering te jailbreaken met behulp van de zogeheten Echo Chamber-methode in combinatie met narratieve sturing via storytelling. Zonder expliciet schadelijke prompts wist het team het model zover te krijgen dat het gedetailleerde instructies gaf voor het maken van een Molotovcocktail. De […]
techzine
12-08-2025 11:35