Entendendo o viés de gênero na tecnologia de reconhecimento facial

Views: 322
0 0
Read Time:1 Minute, 19 Second

O software de reconhecimento facial tem estado na berlinda nos últimos meses. Pesquisadores, especialistas do setor, empresas e formuladores de políticas levantaram preocupações que vão desde potenciais repercussões de privacidade até seu papel na discriminação e muito mais. Na verdade, a Universidade de Michigan publicou recentemente um estudo que vinculou o uso no campus do reconhecimento facial a essas questões.

Em um artigo da Help Net Security,o analista de segurança do WatchGuard Trevor Collins explica as origens do viés nos algoritmos de reconhecimento facial, destaca as descobertas de um novo estudo do WatchGuard Threat Lab sobre viés de gênero na tecnologia de reconhecimento facial e hoje e como a indústria pode lidar com isso. Aqui está um breve trecho da peça:

“Os algoritmos usados para reconhecimento facial hoje dependem fortemente de modelos de machine learning (ML), que exigem treinamento significativo. Infelizmente, o processo de treinamento pode resultar em vieses nessas tecnologias. Se o treinamento não contiver uma amostra representativa da população, a ML não identificará corretamente a população perdida.

Embora isso possa não ser um problema significativo ao combinar rostos para plataformas de mídia social, pode ser muito mais prejudicial quando o software de reconhecimento facial da Amazon, Google, Clearview AI e outros é usado por agências governamentais e aplicação da lei.”

Leia o artigo completo aqui para obter mais informações sobre viés baseado em gênero em software de reconhecimento facial e recomendações para abordá-lo. E não deixe de conferir o relatório original do WatchGuard para obter mais detalhes técnicos sobre o assunto.

FONTE: SECPLICITY

POSTS RELACIONADOS