Desenvolvimento seguro acelerado usando modelagem de ameaças Lite

Views: 135
0 0
Read Time:4 Minute, 48 Second

Novos desenvolvimentos acontecem o tempo todo em empresas de software ocupadas. Mas o desenvolvimento seguro também está acontecendo?

Um processo chamado modelagem de ameaça leve (LTM) envolve as partes interessadas no desenvolvimento seguro, garantindo que a segurança seja incorporada e não aparafusada. O que é LTM e como ele difere da modelagem tradicional de ameaças?

A abordagem de modelagem de ameaças Lite

LTM é uma abordagem simplificada para identificar, avaliar e mitigar possíveis ameaças e vulnerabilidades de segurança em um sistema ou aplicativo. É uma versão simplificada da modelagem tradicional de ameaças , que geralmente envolve uma análise mais abrangente e detalhada dos riscos de segurança.

Com o LTM, não colocamos pinos manualmente no sistema ou aplicativo para ver se ele quebra, como faríamos com o teste de penetração. Em vez disso, fazemos “buracos teóricos” no aplicativo, descobrindo possíveis vias de ataque e vulnerabilidades.

Aqui estão algumas perguntas a serem feitas:

  • Quem iria querer atacar nossos sistemas?
  • Quais componentes do sistema podem ser atacados e como?
  • Qual é a pior coisa que poderia acontecer se alguém invadisse?
  • Que impacto negativo isso teria em nossa empresa? Em nossos clientes?

Quando os LTMs são realizados? 

É melhor executar um LTM sempre que um novo recurso for lançado, um controle de segurança for alterado ou quaisquer alterações forem feitas na arquitetura ou infraestrutura do sistema existente.

Idealmente, os LTMs são realizados  após  a fase de projeto e  antes  da implementação. Afinal, é muito, muito mais fácil corrigir uma vulnerabilidade antes que ela seja liberada para produção. Para dimensionar LTMs em sua organização, certifique-se de estabelecer processos e padrões claros e consistentes. Isso pode envolver a definição de um conjunto comum de categorias de ameaças, identificação de fontes comuns de ameaças e vulnerabilidades e desenvolvimento de procedimentos padrão para avaliação e mitigação de riscos.

Como realizar LTMs em sua organização 

Para começar a realizar LTMs dentro de sua própria organização, primeiro faça com que suas equipes de segurança interna liderem suas conversas LTM. À medida que suas equipes de engenharia se familiarizam com o processo, elas podem começar a executar seus próprios modelos de ameaças.

Para dimensionar LTMs em sua organização, certifique-se de estabelecer processos e padrões claros e consistentes. Isso pode envolver a definição de um conjunto comum de categorias de ameaças, identificação de fontes comuns de ameaças e vulnerabilidades e desenvolvimento de procedimentos padrão para avaliação e mitigação de riscos.

Erros comuns de LTM a serem evitados

O pessoal de segurança é ótimo em modelagem de ameaças: eles geralmente esperam o pior e são imaginativos o suficiente para pensar em casos extremos. Mas essas qualidades também os levam a cair em armadilhas LTM, como:

  • Focando demais em outliers. Isso ocorre durante um exercício LTM, quando o foco da conversa se desvia das ameaças mais realistas aos seus valores discrepantes. Para resolver isso, certifique-se de entender completamente o seu ecossistema. Use informações de seu gerenciamento de eventos e informações de segurança (SIEM) e outros sistemas de monitoramento de segurança. Se você tiver, digamos, 10.000 ataques atingindo os endpoints da interface de programação de aplicativos (API), por exemplo, você sabe que é nisso que seus adversários estão focados. É nisso que seu LTM também deve se concentrar.
  • Ficando muito técnico. Freqüentemente, uma vez descoberta uma vulnerabilidade teórica, o pessoal técnico entra no “modo de solução de problemas”. Eles acabam “resolvendo” o problema e falando sobre implementação técnica em vez de falar sobre o impacto que a vulnerabilidade tem na organização. Se você descobrir que isso está acontecendo durante os exercícios LTM, tente puxar a conversa para trás: diga à equipe que você não vai falar sobre implementação ainda. Fale primeiro sobre o risco e o impacto .
  • Assumindo que as ferramentas sozinhas lidam com os riscos. Freqüentemente, os desenvolvedores esperam que suas ferramentas encontrem todos os problemas. Afinal, a realidade é que um modelo de ameaça não se destina a encontrar uma vulnerabilidade específica. Em vez disso, destina-se a observar o risco geral do sistema, no nível da arquitetura. Na verdade, o design inseguro foi um dos 10 principais riscos de segurança de aplicativos da Web mais recentes da OWASP . Você precisa de modelos de ameaças no nível de arquitetura porque os problemas de segurança de arquitetura são os mais difíceis de corrigir.
  • Negligenciando possíveis ameaças e vulnerabilidades. A modelagem de ameaças não é um exercício único. É importante reavaliar regularmente ameaças e vulnerabilidades potenciais para ficar à frente dos vetores de ataque e agentes de ameaças em constante mudança.
  • Não revisar estratégias de implementação de alto nível. Depois que ameaças e vulnerabilidades potenciais forem identificadas, é importante implementar contramedidas eficazes para mitigá-las ou eliminá-las. Isso pode incluir a implementação de controles técnicos, como validação de entrada, controle de acesso ou criptografia, bem como controles não técnicos, como treinamento de funcionários ou políticas administrativas.

Conclusão

O LTM é uma abordagem simplificada para identificar, avaliar e mitigar possíveis ameaças e vulnerabilidades à segurança. É extremamente amigável ao desenvolvedor e obtém a movimentação segura do código fazendo a modelagem de ameaças no início do ciclo de vida de desenvolvimento de software (SDLC). Melhor ainda, um LTM pode ser feito pelos próprios desenvolvedores de software e arquitetos, em vez de depender de laboratórios para executar a modelagem de ameaças.

Ao desenvolver e implementar LTMs de maneira consistente e eficaz, as organizações podem identificar e abordar com rapidez e eficácia os riscos de segurança mais críticos, evitando armadilhas e erros comuns.

FONTE: DARK READING

POSTS RELACIONADOS