Após pushback, Zoom diz que não usará dados de clientes para treinar modelos de IA

Views: 157
0 0
Read Time:3 Minute, 39 Second

A Zoom diz que voltará atrás em uma mudança recente em seus termos de serviço que permitiu à empresa usar algum conteúdo do cliente para treinar seus modelos de aprendizado de máquina e inteligência artificial.

A mudança ocorre após críticas recentes nas mídias sociais de clientes preocupados com as implicações de privacidade do Zoom usando dados dessa maneira.

Recuando nos planos de uso de dados

“Após o feedback, a Zoom tomou a decisão de atualizar seus Termos de Serviço para refletir que a Zoom não usa seu áudio, vídeo, bate-papo, compartilhamento de tela, anexos ou outras comunicações semelhantes ao Conteúdo do Cliente (como resultados de enquetes, quadro branco e reações) para treinar o Zoom ou modelos de inteligência artificial de terceiros”, disse uma porta-voz em comunicado por e-mail. “A Zoom atualizou seus termos de serviço e produto para deixar esta política clara.”

A decisão de Zoom – e a razão para isso – certamente aumentará o crescente debate sobre as implicações de privacidade e segurança de empresas de tecnologia que usam dados de clientes para treinar modelos de IA.

No caso do Zoom, a empresa introduziu recentemente dois recursos generativos de IA – Zoom IQ Meeting Summary e Zoom IQ Team Chat Compose – que oferecem composição de bate-papo com IA e resumos de reuniões automatizados. Os termos de uma política de serviço atualizada que a empresa anunciou no início deste ano deu ao Zoom o direito de usar alguns dados do cliente por trás desses serviços para treinar os modelos de IA – sem precisar do consentimento do cliente.

Especificamente, a política da Zoom concedeu à empresa o direito “perpétuo, mundial, não exclusivo, isento de royalties, sublicenciável e transferível” de usar os dados do cliente para uma ampla gama de finalidades, incluindo aprendizado de máquina, inteligência artificial, treinamento e teste. Também permitiu ao Zoom o direito desenfreado de fazer praticamente qualquer coisa com os dados, incluindo “redistribuir, publicar, importar, acessar, usar, armazenar, transmitir, divulgar” os dados.

Depois que os clientes recuaram nas mídias sociais, o Zoom inicialmente revisou sua política no início deste mês para dar aos clientes o direito de optar por não ter seus dados usados ​​para treinamento de IA. “O Zoom não usará áudio, vídeo ou conteúdo do cliente para treinar nossos modelos de inteligência artificial sem o seu consentimento”, disse a empresa.

Equilíbrio delicado

Em 11 de agosto, a empresa revisou novamente seus termos de serviço, desta vez para eliminar praticamente todas as referências ao uso de inteligência artificial. A política recém-revisada ainda dá ao Zoom todos os “direitos, títulos e interesses” para muitos dados gerados pelo serviço, incluindo dados de telemetria, dados de uso do produto e dados de diagnóstico. Mas a empresa não usará o conteúdo do cliente para treinar modelos de IA.

A experiência da Zoom destaca o delicado equilíbrio que as empresas de tecnologia devem encontrar entre inovação e confiança do usuário ao integrar IA em seus produtos e serviços. Várias empresas de tecnologia usam dados de clientes há anos para melhorar as experiências do usuário e introduzir novos recursos e funções, diz Shomron Jacob, chefe de aprendizado de máquina da iterate.ai. “Os dados costumam ser chamados de ‘novo petróleo’ na era digital devido ao seu papel inestimável no treinamento e refinamento de modelos de IA para melhorar as experiências do usuário, funcionalidades e novos recursos”, diz Jacob. “Empresas como Google, Facebook e Amazon há muito usam dados de usuários para adaptar seus serviços e melhorar seus algoritmos de IA”.

No entanto, dado o crescente escrutínio da privacidade, segurança e implicações éticas em torno da IA, há uma expectativa crescente de transparência e consentimento do usuário, diz ele. Embora as empresas provavelmente continuem a usar os dados dos clientes como antes, haverá uma pressão crescente sobre elas para fornecer opt-outs claros aos usuários, anonimizar os dados e garantir que as informações pessoais e confidenciais permaneçam protegidas.

“Além disso, estruturas regulatórias como [o] GDPR na Europa e CCPA na Califórnia estabelecem padrões de coleta e uso de dados”, diz Jacob. “À medida que esses regulamentos se tornam mais rigorosos e generalizados, as empresas de tecnologia devem enfrentar os desafios duplos de alavancar os dados do usuário para melhorias na IA, garantindo a conformidade estrita e protegendo a confiança do usuário”.

FONTE: DARKREADING

POSTS RELACIONADOS