-
Mindössze 250 rosszindulatú dokumentum képes megfertőzni bármilyen méretű nagy nyelvi modellt
A mesterséges intelligencia és a nagy nyelvi modellek (LLM-ek) folyamatos fejlődése mellett egyre fontosabbá válik a biztonságuk kérdése is. Egy új, az UK AI Security Institute, az Alan Turing Institute és az Anthropic szakembereinek közös kutatása arra világít rá, hogy egy meglepően kis mennyiségű, mindössze 250 rosszindulatú dokumentum is elegendő lehet ahhoz, hogy hátsóajtó sérülékenységet hozzanak létre bármilyen méretű nagy nyelvi modellben – legyen az kisméretű vagy akár 13 milliárd paraméteres. Ez a felfedezés alapjaiban rengeti meg az eddigi elképzeléseket a modellek adatmérgezésének lehetőségeiről és kockázatairól. Adatmérgezés és hátsóajtó támadások: hogyan működnek? A nagy nyelvi modelleket, mint például a Claude vagy a GPT, hatalmas mennyiségű nyilvánosan elérhető szöveges adatból tanítják,…