Presidente da Microsoft critica “corrida pela IA” e pede regulamentações

Views: 406
0 0
Read Time:3 Minute, 43 Second

O presidente da Microsoft, Brad Smith, disse que podemos ter um “futuro orwelliano” caso a “corrida pela inteligência artificial” (IA) entre EUA e China não seja devidamente regulamentada e baseada em leis de ética. As afirmações foram feitas durante entrevista à BBC.

Smith fez referência ao romance “1984”, escrito por George Orwell, onde um partido toma o controle do mundo por meio de revisionismo histórico e um estado de vigilância global completa e onipresente. Para Smith, já há partes interessadas em empregar a IA na vigilância de seus cidadãos em diversos países.

Imagem mostra o presidente da Microsoft, Brad Smith, que recentemente criticou a "corrida pela IA" e pedindo por legislação de controle à tecnologia.
Brad Smith, presidente da Microsoft, antecipa um cenário de constante – e indevida – vigilância caso pesquisas com IA não tenham fiscalização. Imagem: Stephen Brashear/Getty Images

“Eu me lembro constantemente das lições de George Orwell em seu livro, ‘1984’”, disse Smith. “A história fundamental era sobre um governo que enxergava tudo o que todos faziam e ouvia tudo o que todos diziam, o tempo todo. Bem, isso não aconteceu [conosco] em 1984, mas se não tivermos cuidado, isso pode acontecer em 2024”.

O presidente da Microsoft lembrou que, na China, aspectos da inteligência artificial já começaram a ser empregados no dia a dia: sistemas de reconhecimento facial automatizado já são empregados pela polícia chinesa na busca por criminosos e dissidentes políticos do governo. Em alguns locais nos EUA e China também usam reconhecimento facial ao invés de passagens de trem, ônibus e metrô.

A inteligência artificial, de uma forma resumida, é a tecnologia capaz de “aprender” certos padrões de comportamento ao analisar, em um curto espaço de tempo, quantidades massivas de dados. Desta forma, ela estabelece um padrão analítico que prevê determinados resultados antes de eles virem a acontecer.

O problema com isso é que a tecnologia requer mãos humanas para ser desenvolvida e, com isso, preconceitos e opiniões invariavelmente entram nesse desenvolvimento. De acordo com Bernhardt Trout, professor de engenharia química e do curso de ética em IA pelo Instituto de Tecnologia de Massachusetts (MIT), essa questão é impossível de ser evitada. Mas ele argumenta que, no lado bom da discussão, minimizar os preconceitos humanos é uma das principais prioridades de vários países que empregam ou pesquisam a inteligência artificial.

“As pessoas reconhecem isso na comunidade e estão tentando atacar esse problema”, ele disse.

Segundo o grupo americano IPVM, que advoga pela ética na tecnologia de vigilância em vídeo, é o mau uso da IA que traz as maiores preocupações. A entidade descobriu, por meio de investigações, que o governo chinês planeja desenvolver um sistema conhecido como “Uma pessoa, um arquivo”, que reúne em um só lugar todas as predileções políticas, atividades e relacionamentos dos cidadãos do país.

“Eu não acho que Orwell teria imaginado um governo capaz desse tipo de análise”, isse Conor Healy, diretor do IPVM

O problema é que, quando empregado de forma dúbia, sistemas de vigilância e segurança pública podem extrapolar preconceitos já existentes nas autoridades humanas. A Amazon, em 2020, chegou a ter problemas quando seu sistema de reconhecimento facial “Rekognition”, em testes, identificava como criminosas pessoas de pele negra, com muito mais frequência do que pessoas brancas – mesmo quando a pessoa negra não havia cometido crime algum.

Nos EUA, o Google acabou cancelando o “Projeto Maven”, que, no papel, visava analisar e marcar vídeos capturados por drones militares do Pentágono para revisão humana. O medo, porém, era o de que o governo americano pudesse ordenar ataques aéreos automatizados contra alvos selecionados.

Aqui no Brasil, a ViaQuatro – empresa que controla a Linha 4 (Amarela) do metrô de São Paulo – foi multada em R$ 100 mil após coletar dados de seus usuários por meio de suas câmeras, sem o consentimento das pessoas. O sistema empregava reconhecimento facial de análise de emoções das pessoas frente a determinados anúncios, e assim direcionar as publicidades que veiculava.

A boa notícia é que há diversos esforços para a regulamentação e criação de um código de ética voltado ao desenvolvimento dessa tecnologia. Ao contrário do que teme o presidente da Microsoft, a “corrida pela IA” deve ainda esbarrar em obstáculos legislativos: na Europa, propostas de lei almejam proibir o uso dela para fins de “segregação da população”, enquanto sua aplicação em áreas de infraestrutura, como distribuição de alimentos, gerenciamento de combustíveis ou o mercado financeiro, deve obedecer a pesadas regras de transparência e compliance – além de nunca tomar decisões autônomas, apenas sugerir caminhos para a decisão humana.

FONTE: OLHAR DIGITAL

POSTS RELACIONADOS