Clearview fine: A face inaceitável da vigilância moderna

Views: 265
0 0
Read Time:4 Minute, 44 Second

O Escritório do Comissário de Informação do Reino Unido (ICO) emitiu sua terceira maior multa de £7,5 milhões. Foi imposto à Clearview AI, a controversa empresa de reconhecimento facial que já esteve no lado errado de decisões semelhantes de reguladores na ItáliaFrança Austrália. A Clearview coletou mais de 20 bilhões de imagens dos rostos das pessoas do Facebook e de outras plataformas de mídia social. Em seguida, vendeu o acesso a eles para empresas e instituições privadas, como forças policiais em todo o mundo.

A OIC descobriu que a Clearview violou a lei de proteção de dados do Reino Unido de várias maneiras, incluindo não ter uma razão legal para coletar informações sobre residentes do Reino Unido, não usá-las de maneira justa e transparente e não ter um processo em vigor para impedir que os dados sejam armazenados indefinidamente. A OIC ordenou que a empresa excluísse as imagens de qualquer residente do Reino Unido e se abstivesse de coletar mais no futuro.

John Edwards, comissário de informação do Reino Unido, disse sobre sua decisão: “A empresa não apenas permite a identificação dessas pessoas, mas monitora efetivamente seu comportamento e o oferece como um serviço comercial. Isso é inaceitável.” A OIC também revelou que a tecnologia da Clearview havia sido oferecida em uma “base de teste gratuito” às agências de aplicação da lei do Reino Unido, embora isso tenha parado desde então.

Sorria para a câmera

O software de reconhecimento facial está se tornando um fato da vida no Reino Unido. A proliferação de Ring e outras campainhas de vídeo, por exemplo, forneceu à polícia uma nova maneira de combater o crime, pedindo aos moradores suas imagens e áudio (muitos têm microfones capazes de captar conversas de transeuntes). Em 2019, o Banco de Dados Nacional de Polícia do Reino Unido tinha imagens de cerca de 20 milhões de rostos, muitos dos quais eram pessoas que nunca haviam sido acusadas ou condenadas por um crime.

Há problemas com as autoridades que usam essa tecnologia para combater o crime. Por um lado, o risco de um falso positivo é alto. Quando a Polícia do Sul do País de Gales testou seu sistema de reconhecimento facial por 55 horas, por exemplo, 2.900 partidas em potencial foram sinalizadas – 95% delas eram falsos positivos. Há histórias, particularmente nos EUA, de prisões injustas e até condenações baseadas em software de reconhecimento facial. Talvez devido à falta de diversidade do setor de tecnologia, esses sistemas não sejam bons em reconhecer mulheres ou pessoas de origem étnica, o que serve para agravar a discriminação e o preconceito existentes.

A Comissão Europeia expressou sua intenção de proibir aspectos da tecnologia de reconhecimento facial no futuro. Mas não é apenas o seu rosto: a tecnologia de vigilância está se expandindo a um ritmo tal que agora é possível analisar a maneira como você anda, seus batimentos cardíacos, padrão de respiração e, de forma controversa, emoções.

A tecnologia de vigilância foi normalizada pela pandemia

A Covid-19 impulsionou o crescimento da tecnologia de vigilância. Na França, a tecnologia de reconhecimento facial foi usada no transporte público para monitorar se os passageiros estavam usando máscaras, e a Austrália testou um software semelhante para verificar se as pessoas estavam em casa durante a quarentena. Bilhões de pessoas em todo o mundo tiveram seus movimentos registrados por vários aplicativos de teste e rastreamento da Covid-19.

Houve algum apoio público para esse tipo de medida. Quase dois terços (61%) dos britânicos dizem que ficaram felizes em compartilhar seus dados de status de saúde durante a pandemia, e 54% ficaram felizes em sacrificar parte de sua privacidade de dados para encurtar a duração do bloqueio.

Mas a vigilância também caiu em outras áreas de nossas vidas. A tecnologia de vigilância no local de trabalho – desde o monitoramento de e-mails e navegação na web até o rastreamento de vídeo e registro de chaves – tornou-se comum com o aumento do trabalho remoto. Quase um terço dos trabalhadores está sendo monitorado em seus empregos, acima de 24% no início do ano. A Microsoft até patenteou um software de detecção de emoções para monitorar o bem-estar dos funcionários depois de pesar fatores biométricos, como voz e frequência cardíaca. Sindicatos e deputados estão pedindo um novo conjunto de direitos de dados para proteger os trabalhadores nessas situações.

Em alguns casos, os reguladores estão tomando medidas quando as práticas violam a legislação existente do GDPR. A H&M na Alemanha, por exemplo, recebeu uma multa de 35,2 milhões de euros em 2020 por vigilância excessiva de funcionários e, no Reino Unido, o Barclays está sob investigação por seu uso de software para rastrear a atividade informática da equipe.

A privacidade é um direito humano fundamental

Todos nós temos direito à privacidade; em casa, no trabalho e quando estamos em público. Organizações como a Clearview AI que pegam e armazenam nossas imagens sem o nosso conhecimento ou consentimento devem ser multadas e impedidas de fazê-lo novamente. Mas é apenas a ponta do iceberg.

A tecnologia de reconhecimento facial, e a identificação biométrica de forma mais ampla, é uma inclinação escorregadia que ameaça nosso direito humano fundamental à privacidade. A tecnologia sempre conterá suas tentações. Mas as organizações precisam desempenhar seu papel no desenvolvimento de uma cultura de conformidade contínua com a privacidade para garantir que a privacidade seja considerada em todas as etapas do caminho. A maneira como operamos agora terá consequências reais para o futuro que construímos – para nós mesmos, nossos filhos e seus filhos.

FONTE: HELPNET SECURITY

POSTS RELACIONADOS