A Inteligência Artificial e seus três eixos regulatórios

Views: 272
0 0
Read Time:3 Minute, 34 Second

Com o devido mérito, considerando a importância do tema para os negócios e para a sociedade contemporânea, têm recebido bastante atenção os esforços para regular o desenvolvimento e utilização da inteligência artificial (IA), tanto no Brasil, quanto no exterior.

Lá fora, neste mesmo mês de abril do ano passado, a Comissão Europeia propôs Regulamento com o objetivo de harmonizar leis sobre o tema na região. A proposta de Regulamento sugere a categorização
de usos de IA em 4 níveis de risco, partindo do nível mínimo e chegando ao risco inaceitável. Nos EUA, apesar da menção a possíveis iniciativas legislativas, a tendência, seguindo a tradição americana,
é que a regulação seja setorial e originada em suas agências reguladoras, com destaque para Federal Trade Commission.

Aqui no Brasil os esforços são ainda mais recentes. Em 30 de março último, o Senado Federal instalou comissão responsável por elaborar projeto de regulação para o setor, a qual, como primeiro ato, instituiu
prazo, até 13 de maio de 2022, para receber contribuições ao projeto em regime de consulta pública.

Todos esses projetos ou iniciativas têm por objetivo dar conta dos imprevisíveis e imensuráveis riscos envolvidos na construção e uso de tecnologias que, baseadas em sistemas computacionais complexos e
algoritmos por vezes opacos, nos apoiam ou nos substituem em ações ou na tomada de decisões. Cuida-se, também, do uso de dados, inclusive os pessoais, nesse tipo de contexto. O que se busca,
apoiando-nos no conceito de Data Ethics é sugerir legislação que seja capaz de provocar a internalização de conceitos de “certo” ou “errado” nas ações ou decisões impulsionadas por dados em
cenário de IA ou de automação.

Segundo professores do The Alan Turing Institute, em artigo publicado em 2016, “Data Ethics pode ser definida como o ramo da ética que estuda e avalia problemas morais relacionados a dados (incluindo
geração, gravação, curadoria, processamento, disseminação, compartilhamento e uso), algoritmos (incluindo inteligência artificial, agentes artificiais, aprendizado de máquina e robôs) e práticas
correspondentes (incluindo inovação responsável, programação, hacking e códigos profissionais), a fim de formular e apoiar soluções moralmente adequadas (por exemplo, condutas corretas ou valores corretos). Isso significa que os desafios éticos da ciência de dados podem ser mapeados dentro do espaço conceitual delineado por três eixos de pesquisa: a ética dos dados, a ética dos algoritmos
e a ética das práticas.”

Partindo da noção de 3 eixos trazida por Luciano Floridi e Mariarosaria Taddeo, e exceção feita à proteção de dados pessoais que já conta com leis próprias, o que se pretende com os projetos de lei que mencionamos, é dar efetividade legislativa ou regulatória a boa parte do campo de estudo da Data Ethics.

Assim sendo, embora recomendável como boa prática, bem como para a mitigação de riscos, instituir medidas de Data Ethics ainda não é obrigatório para empresas que empreguem IA em suas atividades.
Isso quer dizer que o uso de IA é livre no Brasil? A resposta é não. A dimensão de proteção de dados pessoais associada à lA, não só é regulada, como tende a ser priorizada pelo nosso regulador.

Usar os dados pessoais reunidos no datalake da sua organização para fins de analytics é possível? Se sim, em quais circunstâncias? As regras de descarte de dados existentes são compatíveis com os seus projetos de analytics? Seus relatórios de impacto estão ajustados para as realidades e riscos associados à IA? Seus sistemas contemplam o exercício do direito à revisão de decisões automatizadas? Quais as técnicas de minimização e preservação da privacidade disponíveis para seus sistemas de IA? No contexto que se apresenta, se você quer destravar o uso do analytics na sua organização ou ter a tranquilidade de que o seu datalake está sendo utilizado com segurança, terá necessariamente que
responder a essas e outras perguntas.

A sua resposta passa necessariamente pela aplicação de framework de privacidade voltado especificamente à IA, o qual, embora não altere seu programa de adequação à LGPD, tende a ser complementar a este.

Proteção de dados pessoais é atividade que evolui ao sabor das circunstâncias de uso dos dados e do desenvolvimento tecnológico. O “case” de uso para analytics e IA é, tanto do ponto de vista estratégico, quanto do ponto de vista de risco, o mais pungente no momento.

Autor: Gustavo Artese – Advogado especialista em Direito Digital e Sócio Fundador Artese Advogados

FONTE: LINKEDIN

POSTS RELACIONADOS