Os líderes de segurança de aplicativos estão mais otimistas do que os líderes de desenvolvedores em relação à IA generativa , embora ambos concordem que isso levará a vulnerabilidades de segurança mais generalizadas no desenvolvimento de software, de acordo com a Sonatype.
De acordo com os líderes de DevOps e SecOps pesquisados, 97% estão usando a tecnologia hoje, com 74% relatando que se sentem pressionados a usá-la, apesar dos riscos de segurança identificados.
Na verdade, a maioria dos entrevistados concorda que os riscos de segurança são a sua maior preocupação associada à tecnologia, sublinhando a necessidade crítica de uma adoção responsável da IA que irá melhorar tanto o software como a segurança.
As equipes de SecOps economizam mais tempo
Embora os entrevistados de DevOps e SecOps tenham perspectivas semelhantes sobre IA generativa na maioria dos casos, existem diferenças notáveis no que diz respeito à adoção e produtividade.
45% dos líderes de SecOps já implementaram IA generativa no processo de desenvolvimento de software , em comparação com 31% no DevOps. Os líderes de SecOps veem maior economia de tempo do que seus colegas de DevOps, com 57% afirmando que a IA generativa lhes economiza pelo menos 6 horas por semana, em comparação com apenas 31% dos entrevistados de DevOps.
Quando questionados sobre os impactos mais positivos desta tecnologia, os entrevistados de DevOps relatam desenvolvimento de software mais rápido (16%) e software mais seguro (15%). Os líderes de SecOps citam o aumento da produtividade (21%) e a identificação/resolução mais rápida de problemas (16%) como os principais benefícios.
Mais de três quartos dos líderes de DevOps afirmam que o uso de IA generativa resultará em mais vulnerabilidades no código-fonte aberto. Surpreendentemente, os líderes de SecOps estão menos preocupados com 58%. Além disso, 42% dos entrevistados de DevOps e 40% dos líderes de SecOps dizem que a falta de regulamentação poderia impedir os desenvolvedores de contribuir para projetos de código aberto.
Os líderes de DevOps e SecOps querem mais regulamentação
Questionados sobre quem eles acreditam ser responsável pela regulamentação do uso de IA generativa, 59% dos entrevistados de DevOps e 78% dos SecOps dizem que tanto o governo quanto as empresas individuais deveriam ser responsáveis pela regulamentação.
“A era da IA parece os primeiros dias do código aberto, como se estivéssemos construindo o avião enquanto o pilotamos em termos de segurança, política e regulamentação”, disse Brian Fox , CTO da Sonatype. “A adoção tem sido generalizada e o ciclo de desenvolvimento de software não é exceção. Embora os dividendos de produtividade sejam claros, os nossos dados também expõem uma realidade preocupante e concomitante: as ameaças à segurança representadas por esta tecnologia ainda nascente. Com cada ciclo de inovação surgem novos riscos, e é fundamental que os desenvolvedores e líderes de segurança de aplicativos olhem para a adoção da IA com foco na segurança e na proteção.“
O debate sobre licenciamento e compensação também foi uma prioridade para ambos os grupos – sem ele, os desenvolvedores poderiam ficar no limbo jurídico ao lidar com reclamações de plágio contra LLMs . Notavelmente, as decisões contra a proteção dos direitos de autor para a arte gerada pela IA já suscitaram discussões sobre a quantidade de contribuição humana necessária para cumprir o que a lei atual define como verdadeira autoria.
Os entrevistados concordaram que os criadores deveriam possuir os direitos autorais da produção gerada por IA na ausência de lei de direitos autorais (40%), e ambos concordaram esmagadoramente que os desenvolvedores deveriam ser compensados pelo código que escreveram se ele for usado em artefatos de código aberto em LLMs (DevOps 93 % vs. SecOps 88%).
FONTE: HELP NET SECURITY