Vissza az előadásokhoz

Prompt injection támadások Nagy nyelvi modellek ellen

IB028 | 16:15 - 16:45

A nagy nyelvi modelleket (LLM) egyre szélesebb körben alkalmazzák a gyakorlatban, elsősorban kiváló utasításkövető képességeik miatt. Ugyanakkor számos sebezhetőségük ismert, amelyek közül a prompt injection támadás kiemelkedik, és az OWASP fenyegetettségi listáján az első helyen áll. Ez annak köszönhető, hogy a támadó viszonylag egyszerűen ráveheti a modellt arra, hogy végrehajtsa az adatok közé ágyazott utasításokat, mivel a modell nem tudja megkülönböztetni az utasításokat a tényleges adattól. Az előadásban bemutatok néhány jól ismert prompt injection támadást, valamint a nagy nyelvi modellek elleni védekezési lehetőségeket.

Presentation Image

Ács Gergely

Docens, Crysys Lab