Vissza az előadásokhoz
Vissza az előadásokhoz
Prompt injection támadások Nagy nyelvi modellek ellen
IB028 | 16:15 - 16:45
A nagy nyelvi modelleket (LLM) egyre szélesebb körben alkalmazzák a gyakorlatban, elsősorban kiváló utasításkövető képességeik miatt. Ugyanakkor számos sebezhetőségük ismert, amelyek közül a prompt injection támadás kiemelkedik, és az OWASP fenyegetettségi listáján az első helyen áll. Ez annak köszönhető, hogy a támadó viszonylag egyszerűen ráveheti a modellt arra, hogy végrehajtsa az adatok közé ágyazott utasításokat, mivel a modell nem tudja megkülönböztetni az utasításokat a tényleges adattól. Az előadásban bemutatok néhány jól ismert prompt injection támadást, valamint a nagy nyelvi modellek elleni védekezési lehetőségeket.

Ács Gergely
Docens, Crysys Lab