Reação de LLMs Locais a Prompt Injection: Um Estudo Experimental

Reação de LLMs Locais a Prompt Injection: Um Estudo Experimental

Atualizado em 17/08/2025
Lucas Catão de Moraes

Documento PDF Disponível

Baixe o artigo completo em formato PDF

Baixar PDF

Este estudo pioneiro analisa vulnerabilidades de prompt injection em quatro LLMs executados localmente: Qwen-3 8B, DeepSeek R1 0528 Qwen3-8B, Google G...

Este estudo experimental analisa vulnerabilidades de prompt injection em quatro modelos de linguagem de grande escala (LLMs) executados localmente: Qwen-3 8B, DeepSeek R1 0528 Qwen3-8B, Google Gemma 3-12B e OpenAI GPT-OSS-20B. Através de testes controlados utilizando métricas padronizadas (FA, TAR, ΔPPL), identificamos que nenhum modelo apresenta proteções unificadas contra diferentes categorias de ataques. Os resultados revelam quatro padrões distintos de vulnerabilidade e estabelecem o primeiro framework científico para avaliação de segurança em LLMs locais.

DolutechAI

DolutechAI

Pesquisas em Inteligência Artificial

Voltar aos Artigos

Outros Artigos