Todo mundo já se arrependeu de contar um segredo que deveria ter guardado. Depois que essas informações são compartilhadas, elas não podem ser retiradas. É apenas parte da experiência humana.
Agora também faz parte da experiência de IA. Sempre que alguém compartilha algo com uma ferramenta de IA generativa – seja uma transcrição que está tentando transformar em um documento ou dados financeiros que está tentando analisar – isso não pode ser retirado.
Soluções generativas de IA, como ChatGPT e Bard do Google, têm dominado as manchetes. As tecnologias mostram-se extremamente promissoras para uma infinidade de casos de uso e já começaram a mudar a forma como trabalhamos. Mas juntamente com estas grandes novas oportunidades vêm grandes riscos.
Os perigos potenciais da IA foram amplamente discutidos – provavelmente tanto quanto a própria tecnologia. O que uma eventual inteligência artificial geral (AGI) significará para a humanidade? E como explicaremos coisas como o problema do alinhamento da IA, que afirma que, à medida que os sistemas de IA se tornam mais poderosos, podem não fazer o que os humanos querem que façam?
Preocupações com alinhamento de segurança
Antes da IA, sempre que os humanos desenvolviam uma nova tecnologia ou produto, eram postas em prática medidas de segurança concomitantes. Veja os carros, por exemplo. As primeiras versões não apresentavam cintos de segurança e as pessoas se feriam em acidentes, o que fez com que os cintos de segurança se tornassem padrão e eventualmente aplicados por lei.
Aplicar medidas de segurança à IA é muito mais complicado porque estamos desenvolvendo uma entidade inteligente intangível – há muitas incógnitas e áreas cinzentas. A IA tem o potencial de se tornar um “trem descontrolado” se não tomarmos cuidado, e há um limite para o que podemos fazer para mitigar seus riscos.
Não se sabe como se irá desenrolar a proliferação da IA generativa nos próximos meses e anos, mas há algumas coisas que as empresas precisam de ter em mente à medida que adotam e experimentam a tecnologia.
Tenha cuidado com o que você compartilha e com quem você compartilha
As organizações devem discernir quais dados compartilham com modelos generativos de IA. Muitos funcionários estão sobrecarregados e pode ser tentador reduzir a carga de trabalho transferindo tarefas para IA generativa. Mas quaisquer dados compartilhados com esses modelos podem ser mal utilizados ou comprometidos se caírem em mãos erradas. Coisas como dados confidenciais (por exemplo, financeiros), segredos comerciais e outras informações comerciais confidenciais precisam ser protegidas.
Uma forma de reduzir este risco é utilizar modelos privados de IA generativa. Mas o problema com essa estratégia é que – a partir de agora – os modelos privados não possuem a interface de usuário (IU) fácil de usar que torna plataformas como o ChatGPT tão populares e atraentes. A interface dos modelos privados irá sem dúvida melhorar à medida que as empresas continuarem a desenvolvê-los, mas, por enquanto, as empresas precisam de ter políticas em vigor que proíbam — ou pelo menos estabeleçam parâmetros — a utilização de modelos públicos para dados empresariais.
Seja flexível com as políticas de IA
A IA é uma necessidade para as organizações permanecerem competitivas. Isto se tornará mais crítico à medida que as empresas tentarem automatizar mais processos, reduzir custos e condensar suas forças de trabalho. Como tal, as organizações precisam de promulgar políticas em torno da utilização segura da IA e, ao mesmo tempo, apoiar a inovação. Tem que haver um equilíbrio porque, se, por exemplo, as grandes corporações colocarem parâmetros demasiado rígidos em torno da IA, as startups com menos regulamentação poderão ultrapassá-los.
A aplicação dessas políticas será complicada. Conforme mencionado, os modelos privados são complicados de usar. Todo mundo quer fazer mais com mais rapidez, então será tentador reverter para modelos públicos como o ChatGPT. As empresas precisam de aperfeiçoar constantemente as suas melhores práticas de IA, comunicar as alterações políticas aos funcionários e manter-se atentas a novas instâncias privadas que permitam aos trabalhadores beneficiar da IA e também manter os dados corporativos seguros.
Lembre-se de que a IA mente e não tem responsabilidade
Apesar da promessa da IA, ela não é uma solução mágica e está longe de ser perfeita . Dois riscos específicos dos quais as empresas precisam estar cientes são que a IA pode “alucinar” e também é quase impossível responsabilizar as pessoas pelo uso da IA. Não há como saber com segurança quem compartilhou o quê com um determinado modelo. Depois que os dados forem compartilhados, você não poderá perguntar ao modelo: como você conhece essas informações? O que está feito está feito e há muito pouca ou nenhuma responsabilidade.
Além disso, a IA pode ter alucinações se interpretar mal os dados de treinamento. Isso pode resultar em respostas aparentemente confiáveis e precisas que são essencialmente falsas. Por exemplo, o linguista e lexicógrafo Ben Zimmer perguntou ao Bard do Google sobre a origem de uma frase fictícia, “ditongização argumentativa”. Apesar de totalmente inventado, Bard produziu cinco parágrafos explicando as origens falsas da frase imaginária. A IA tem o potencial de enganar os utilizadores com informações incorretas e as empresas precisam de permanecer vigilantes porque isso pode ter implicações comerciais.
A IA tornou-se rapidamente uma ferramenta de negócios indispensável e em breve podemos esperar ver desenvolvimentos significativos em modelos generativos. As empresas precisam continuar a educar a si mesmas e aos seus funcionários sobre os benefícios e os riscos desta tecnologia. Ao serem cautelosos na partilha de informações, permanecerem flexíveis quando se trata de elaboração de políticas e estarem conscientes das limitações da IA, as empresas podem beneficiar das vantagens da IA, ao mesmo tempo que minimizam os riscos.
FONTE: DARKREADING