A IA nunca esquece, então devemos ensiná-la a perdoar

Views: 518
0 0
Read Time:6 Minute, 21 Second

A inteligência artificial está escutando, e isso é imparável – mas todos devemos proteger a privacidade das crianças

“Há muitas coisas em que temos que pensar todos os dias, muitas coisas novas que precisamos aprender. Novos estilos, novas informações, nova tecnologia, nova terminologia … Mas ainda assim, não importa quanto tempo passe, não importa o que ocorra nesse meio tempo, há algumas coisas que nunca podemos atribuir ao esquecimento, memórias que nunca podemos apagar. Eles permanecem conosco para sempre, como uma pedra de toque. ”- Haruki Murakami,“ Kafka on the Shore ”

De acordo com um relatório recente da Microsoft, usuários de assistentes digitais, como Alexa da Amazon e Siri da Apple, continuam avaliando a conveniência em relação a possíveis preocupações com a privacidade. Oitenta por cento relatam estar satisfeitos com o utilitário que esses dispositivos fornecem; apenas metade dessa porcentagem (41%) está preocupada com a segurança dos dados que adquirem. Como escrevi anteriormente, essa é uma desvantagem que todos nós devemos pesar na era digital e não há respostas certas ou erradas. Mas existem decisões informadas e desinformadas, e eu suspeito que esses participantes da pesquisa não consideraram adequadamente como os dados que eles alimentam em seus assistentes virtuais poderiam ser usados. Depois que seus dados são introduzidos em algoritmos, a cadeia de propriedade é interrompida e você perde o controle – para crianças, o que representa um fardo injusto e um risco potencial à segurança.

Mesmo se você confiar nas empresas que estão coletando seus dados e nos algoritmos que os analisam e os aplicam, existe a preocupação de os hackers terem acesso a eles. Podemos entender o que um grupo de hackers criminosos deseja com nossos números de cartão de crédito e informações de identidade, mas ninguém pode ter certeza de que dano resultará da exploração da análise de IA de nosso comportamento, nossos dados biométricos e outros dados confidenciais. Os atores estatais poderiam usar esses detalhes para roubar segredos, interferir nas eleições ou manipular ou chantagear funcionários. Estados repressivos já estão usando ferramentas avançadas de hacking para atingir dissidentes e outros grupos.

Seus dados pessoais alimentando as máquinas de IA

Ainda existem razões imediatas para desconfiar dos assistentes digitais. O modelo de negócios em vigor depende de melhorias contínuas em sua precisão e inteligência. Os dados que entram são assimilados no algoritmo de aprendizado da máquina, ajudando a IA a evitar erros passados ​​e a fazer melhores previsões. Em um ciclo recorrente, o consumidor percebe os benefícios da tecnologia, enquanto fornece continuamente material para sua melhoria. Por volta do momento do relatório da Microsoft citado acima, foi revelado que a Amazon tinha uma equipe dedicada de funcionários que ouvem gravações de voz feitas pelo Alexa, a fim de treinar o software para ter um desempenho melhor. A resposta da Amazon foi enfatizar que ela registra apenas “uma amostra extremamente pequena” de gravações para melhorar a experiência do consumidor. Perturbador, no entanto, mesmo os usuários que optarem por não receber suas gravações no sistema ainda podem estar sujeitos a esse processo de revisão manual. Este mês, o Facebook também admitiu que prestadores de serviços pagassem para ouvir e transcrever as conversas do Messenger. Em seguida, a Apple confessou que funcionários humanos estavam ouvindo as gravações da Siri, incluindo usuários que fazem sexo. Em outras palavras, as informações que você fornece a um assistente digital não estão apenas entrando na caixa preta de uma IA. Poderia muito bem ser reproduzido por outros seres humanos, para não mencionar de uma maneira que é rastreável para você.

Temos a tendência de nos preocupar mais com o acesso dos humanos aos nossos dados, mas e os algoritmos? A questão não se limita a essa classe específica de produtos, como assistentes digitais – ela se vincula a considerações éticas muito mais amplas sobre a IA. Os bits de informação que cedemos às máquinas inteligentes podem entrar como pacotes discretos, mas depois deixam de ser identificáveis, incluídos na rede. Não é mais apenas uma questão de ter os direitos e regulamentos em vigor que dão aos consumidores a propriedade de seus dados. Hoje, nossas informações são perpetuamente incorporadas a algoritmos complexos, geralmente aqueles que não são mais transparentes, mesmo para os engenheiros que os criaram.

Nossos pontos de dados individuais ajudam a fortalecer e expandir esses sistemas, mas, no processo, perdemos nossa propriedade sobre eles. No caso da IA, não há como mudar de idéia e recuperar a posse de sua propriedade digital. Deve-se enfatizar que essas considerações não são puramente filosóficas. Veja a aprovação da União Européia do Regulamento Geral de Proteção de Dados (GDPR) no ano passado: problemas muito tangíveis de implementação surgem imediatamente. Como os reguladores impõem o “direito de serem esquecidos” se os dados em questão foram incorporados aos processos de aprendizado de uma IA?

Os erros das crianças devem permanecer deles

Também podemos considerar as implicações concretas para diferentes grupos, como a geração que cresce no meio dessa tecnologia. Conforme descrito em um artigo da Wired de leitura obrigatória, eles enfrentarão dificuldades sem problemas anteriores.

já foi encontrada. Por um lado, eles terão extensos registros digitais documentando suas vidas desde a infância, seguindo-os a cada entrevista de emprego e pedido de empréstimo, sem mencionar as datas em perspectiva.

Assistentes digitais e outras IAs não explicam a crianças ou adolescentes impactos de dados duradouros que um ser humano pode esclarecer pacientemente. Eles capturam as informações com indiferença a esses tipos de considerações. As informações que eles coletam podem ser conectadas a algoritmos que determinam importantes resultados sociais. Um estudante que foi pego trapaceando em uma gravação de vídeo, por exemplo, pode continuar sendo lembrado e penalizado por esse passo em falso até a idade adulta, provocando um ciclo vicioso de insatisfação e outras infrações.

Presumivelmente, gostaríamos de construir sociedades que permitam às crianças o espaço para cometer erros e aprender com elas. E, no entanto, colocando um vasto poder nas mãos da IA, preparamos o cenário para o oposto: um mundo em que erros passados ​​se tornam marcas indeléveis no registro de uma pessoa e limitam as oportunidades de auto-aperfeiçoamento.

Ao pensarmos sobre essas questões, devemos equilibrar, como sempre, os incríveis recursos dessas tecnologias com suas correspondentes desvantagens. Deveríamos continuar melhorando os sistemas de IA para melhor atender nossos objetivos. À medida que essas máquinas se tornam mais inteligentes e eficientes, elas se tornam parceiros cada vez mais valiosos para nos ajudar a construir sociedades vibrantes e prósperas.

Os problemas discutidos acima são sérios e requerem atenção urgente. Não conseguiremos encontrar as soluções corretas se não conseguirmos manter nossos valores fundamentais à frente e centralizados na discussão. A regulamentação deve ter como objetivo preservar o compromisso com a privacidade individual, de maneira atualizada para a era digital. (Uma batalha que está ocorrendo pelo menos desde a invenção do telefone, como vou investigar mais no meu próximo post no blog.) O tremendo poder da IA ​​é encontrar conexões em dados invisíveis à mente humana, por isso inevitavelmente haverá conseqüências não intencionais.

Além de considerar os avanços tecnológicos, as soluções devem agora ser mais globais, para corresponder à escala da tecnologia que abordam. E eles devem se esforçar para preservar esses direitos sem bloquear um caminho a seguir para o progresso contínuo da tecnologia. Como mãe com filhos pequenos, estou muito mais animada do que com medo de meus filhos crescerem neste momento revolucionário. Mas, para garantir que eles colhem os benefícios das poderosas ferramentas digitais na ponta dos dedos, precisamos reconhecer suas conseqüências a longo prazo, especialmente para os jovens demais para terem voz.

FONTE: https://nakedsecurity.sophos.com/2019/09/20/report-use-of-ai-surveillance-is-growing-around-the-world/

POSTS RELACIONADOS