IA generativa atrai DevOps e SecOps para território arriscado

Views: 3231
0 0
Read Time:3 Minute, 5 Second

Os líderes de segurança de aplicativos estão mais otimistas do que os líderes de desenvolvedores em relação à IA generativa , embora ambos concordem que isso levará a vulnerabilidades de segurança mais generalizadas no desenvolvimento de software, de acordo com a Sonatype.

De acordo com os líderes de DevOps e SecOps pesquisados, 97% estão usando a tecnologia hoje, com 74% relatando que se sentem pressionados a usá-la, apesar dos riscos de segurança identificados.

Na verdade, a maioria dos entrevistados concorda que os riscos de segurança são a sua maior preocupação associada à tecnologia, sublinhando a necessidade crítica de uma adoção responsável da IA ​​que irá melhorar tanto o software como a segurança.

As equipes de SecOps economizam mais tempo

Embora os entrevistados de DevOps e SecOps tenham perspectivas semelhantes sobre IA generativa na maioria dos casos, existem diferenças notáveis ​​no que diz respeito à adoção e produtividade.

45% dos líderes de SecOps já implementaram IA generativa no processo de desenvolvimento de software , em comparação com 31% no DevOps. Os líderes de SecOps veem maior economia de tempo do que seus colegas de DevOps, com 57% afirmando que a IA generativa lhes economiza pelo menos 6 horas por semana, em comparação com apenas 31% dos entrevistados de DevOps.

Quando questionados sobre os impactos mais positivos desta tecnologia, os entrevistados de DevOps relatam desenvolvimento de software mais rápido (16%) e software mais seguro (15%). Os líderes de SecOps citam o aumento da produtividade (21%) e a identificação/resolução mais rápida de problemas (16%) como os principais benefícios.

Mais de três quartos dos líderes de DevOps afirmam que o uso de IA generativa resultará em mais vulnerabilidades no código-fonte aberto. Surpreendentemente, os líderes de SecOps estão menos preocupados com 58%. Além disso, 42% dos entrevistados de DevOps e 40% dos líderes de SecOps dizem que a falta de regulamentação poderia impedir os desenvolvedores de contribuir para projetos de código aberto.

Os líderes de DevOps e SecOps querem mais regulamentação

Questionados sobre quem eles acreditam ser responsável pela regulamentação do uso de IA generativa, 59% dos entrevistados de DevOps e 78% dos SecOps dizem que tanto o governo quanto as empresas individuais deveriam ser responsáveis ​​pela regulamentação.

“A era da IA ​​parece os primeiros dias do código aberto, como se estivéssemos construindo o avião enquanto o pilotamos em termos de segurança, política e regulamentação”, disse Brian Fox , CTO da Sonatype. “A adoção tem sido generalizada e o ciclo de desenvolvimento de software não é exceção. Embora os dividendos de produtividade sejam claros, os nossos dados também expõem uma realidade preocupante e concomitante: as ameaças à segurança representadas por esta tecnologia ainda nascente. Com cada ciclo de inovação surgem novos riscos, e é fundamental que os desenvolvedores e líderes de segurança de aplicativos olhem para a adoção da IA ​​com foco na segurança e na proteção.“

O debate sobre licenciamento e compensação também foi uma prioridade para ambos os grupos – sem ele, os desenvolvedores poderiam ficar no limbo jurídico ao lidar com reclamações de plágio contra LLMs . Notavelmente, as decisões contra a proteção dos direitos de autor para a arte gerada pela IA já suscitaram discussões sobre a quantidade de contribuição humana necessária para cumprir o que a lei atual define como verdadeira autoria.

Os entrevistados concordaram que os criadores deveriam possuir os direitos autorais da produção gerada por IA na ausência de lei de direitos autorais (40%), e ambos concordaram esmagadoramente que os desenvolvedores deveriam ser compensados ​​pelo código que escreveram se ele for usado em artefatos de código aberto em LLMs (DevOps 93 % vs. SecOps 88%).

FONTE: HELP NET SECURITY

POSTS RELACIONADOS