LLM Guard: kit de ferramentas de código aberto para proteger modelos de linguagem grande

Views: 4183
0 0
Read Time:1 Minute, 14 Second

LLM Guard é um kit de ferramentas projetado para fortalecer a segurança de Large Language Models ( LLMs ). Ele foi projetado para fácil integração e implantação em ambientes de produção.

Ele fornece avaliadores abrangentes para entradas e saídas de LLMs, oferecendo sanitização, detecção de linguagem prejudicial e vazamento de dados, e prevenção contra injeção imediata e ataques de jailbreak.

O LLM Guard foi desenvolvido com um propósito simples: apesar do potencial dos LLMs para aumentar a produtividade dos funcionários, a adoção corporativa tem sido hesitante. Esta relutância decorre dos riscos de segurança significativos e da falta de controlo e observabilidade na implementação destas tecnologias.

“Queremos que este se torne o kit de ferramentas de segurança de código aberto preferido do mercado, simplificando a adoção segura de LLMs para empresas, oferecendo todas as ferramentas essenciais prontas para uso”, disse Oleksandr Yaremchuk, um dos criadores do LLM Guard, ao Help Net Security.

Guarda LLM

“O LLM Guard passou por algumas atualizações interessantes, que lançaremos em breve, incluindo melhor documentação para a comunidade, suporte para inferência de GPU e nosso recentemente implantado LLM Guard Playground no HuggingFace . No próximo mês, lançaremos nossa API de segurança (versão em nuvem do LLM Guard), com foco em garantir desempenho com baixa latência e fortalecer a avaliação/alucinação de saída”, acrescentou Yaremchuk.

O kit de ferramentas está disponível gratuitamente no GitHub . Quer você use ChatGPT , Claude, Bard ou qualquer outro modelo básico, agora você pode fortalecer seu LLM.

FONTE: HELP NET SECURITY

POSTS RELACIONADOS