A Zoom diz que voltará atrás em uma mudança recente em seus termos de serviço que permitiu à empresa usar algum conteúdo do cliente para treinar seus modelos de aprendizado de máquina e inteligência artificial.
A mudança ocorre após críticas recentes nas mídias sociais de clientes preocupados com as implicações de privacidade do Zoom usando dados dessa maneira.
Recuando nos planos de uso de dados
“Após o feedback, a Zoom tomou a decisão de atualizar seus Termos de Serviço para refletir que a Zoom não usa seu áudio, vídeo, bate-papo, compartilhamento de tela, anexos ou outras comunicações semelhantes ao Conteúdo do Cliente (como resultados de enquetes, quadro branco e reações) para treinar o Zoom ou modelos de inteligência artificial de terceiros”, disse uma porta-voz em comunicado por e-mail. “A Zoom atualizou seus termos de serviço e produto para deixar esta política clara.”
A decisão de Zoom – e a razão para isso – certamente aumentará o crescente debate sobre as implicações de privacidade e segurança de empresas de tecnologia que usam dados de clientes para treinar modelos de IA.
No caso do Zoom, a empresa introduziu recentemente dois recursos generativos de IA – Zoom IQ Meeting Summary e Zoom IQ Team Chat Compose – que oferecem composição de bate-papo com IA e resumos de reuniões automatizados. Os termos de uma política de serviço atualizada que a empresa anunciou no início deste ano deu ao Zoom o direito de usar alguns dados do cliente por trás desses serviços para treinar os modelos de IA – sem precisar do consentimento do cliente.
Especificamente, a política da Zoom concedeu à empresa o direito “perpétuo, mundial, não exclusivo, isento de royalties, sublicenciável e transferível” de usar os dados do cliente para uma ampla gama de finalidades, incluindo aprendizado de máquina, inteligência artificial, treinamento e teste. Também permitiu ao Zoom o direito desenfreado de fazer praticamente qualquer coisa com os dados, incluindo “redistribuir, publicar, importar, acessar, usar, armazenar, transmitir, divulgar” os dados.
Depois que os clientes recuaram nas mídias sociais, o Zoom inicialmente revisou sua política no início deste mês para dar aos clientes o direito de optar por não ter seus dados usados para treinamento de IA. “O Zoom não usará áudio, vídeo ou conteúdo do cliente para treinar nossos modelos de inteligência artificial sem o seu consentimento”, disse a empresa.
Equilíbrio delicado
Em 11 de agosto, a empresa revisou novamente seus termos de serviço, desta vez para eliminar praticamente todas as referências ao uso de inteligência artificial. A política recém-revisada ainda dá ao Zoom todos os “direitos, títulos e interesses” para muitos dados gerados pelo serviço, incluindo dados de telemetria, dados de uso do produto e dados de diagnóstico. Mas a empresa não usará o conteúdo do cliente para treinar modelos de IA.
A experiência da Zoom destaca o delicado equilíbrio que as empresas de tecnologia devem encontrar entre inovação e confiança do usuário ao integrar IA em seus produtos e serviços. Várias empresas de tecnologia usam dados de clientes há anos para melhorar as experiências do usuário e introduzir novos recursos e funções, diz Shomron Jacob, chefe de aprendizado de máquina da iterate.ai. “Os dados costumam ser chamados de ‘novo petróleo’ na era digital devido ao seu papel inestimável no treinamento e refinamento de modelos de IA para melhorar as experiências do usuário, funcionalidades e novos recursos”, diz Jacob. “Empresas como Google, Facebook e Amazon há muito usam dados de usuários para adaptar seus serviços e melhorar seus algoritmos de IA”.
No entanto, dado o crescente escrutínio da privacidade, segurança e implicações éticas em torno da IA, há uma expectativa crescente de transparência e consentimento do usuário, diz ele. Embora as empresas provavelmente continuem a usar os dados dos clientes como antes, haverá uma pressão crescente sobre elas para fornecer opt-outs claros aos usuários, anonimizar os dados e garantir que as informações pessoais e confidenciais permaneçam protegidas.
“Além disso, estruturas regulatórias como [o] GDPR na Europa e CCPA na Califórnia estabelecem padrões de coleta e uso de dados”, diz Jacob. “À medida que esses regulamentos se tornam mais rigorosos e generalizados, as empresas de tecnologia devem enfrentar os desafios duplos de alavancar os dados do usuário para melhorias na IA, garantindo a conformidade estrita e protegendo a confiança do usuário”.
FONTE: DARKREADING