LLM Guard é um kit de ferramentas projetado para fortalecer a segurança de Large Language Models ( LLMs ). Ele foi projetado para fácil integração e implantação em ambientes de produção.
Ele fornece avaliadores abrangentes para entradas e saídas de LLMs, oferecendo sanitização, detecção de linguagem prejudicial e vazamento de dados, e prevenção contra injeção imediata e ataques de jailbreak.
O LLM Guard foi desenvolvido com um propósito simples: apesar do potencial dos LLMs para aumentar a produtividade dos funcionários, a adoção corporativa tem sido hesitante. Esta relutância decorre dos riscos de segurança significativos e da falta de controlo e observabilidade na implementação destas tecnologias.
“Queremos que este se torne o kit de ferramentas de segurança de código aberto preferido do mercado, simplificando a adoção segura de LLMs para empresas, oferecendo todas as ferramentas essenciais prontas para uso”, disse Oleksandr Yaremchuk, um dos criadores do LLM Guard, ao Help Net Security.
![Como funciona Guarda LLM](https://img2.helpnetsecurity.com/posts2023/llm-guard2.png)
“O LLM Guard passou por algumas atualizações interessantes, que lançaremos em breve, incluindo melhor documentação para a comunidade, suporte para inferência de GPU e nosso recentemente implantado LLM Guard Playground no HuggingFace . No próximo mês, lançaremos nossa API de segurança (versão em nuvem do LLM Guard), com foco em garantir desempenho com baixa latência e fortalecer a avaliação/alucinação de saída”, acrescentou Yaremchuk.
O kit de ferramentas está disponível gratuitamente no GitHub . Quer você use ChatGPT , Claude, Bard ou qualquer outro modelo básico, agora você pode fortalecer seu LLM.
FONTE: HELP NET SECURITY