Casa Internet Slack sob ataque por política de treinamento de IA sorrateira

Slack sob ataque por política de treinamento de IA sorrateira

\n

Ao longo das questões em curso sobre como as grandes empresas de tecnologia estão apropriando-se de dados de indivíduos e empresas para o treinamento de serviços de IA, uma tempestade está se formando entre os usuários do Slack indignados com a forma como a plataforma de chat de propriedade da Salesforce está avançando com sua visão de IA.

\n

A empresa, como muitas outras, está usando seus próprios dados de usuário para treinar alguns de seus novos serviços de IA. Mas, descobriu-se que se você não quiser que o Slack use seus dados, você precisa enviar um e-mail para a empresa para optar por sair.

\n

E os termos desse envolvimento estão escondidos em uma política de privacidade confusa e desatualizada que ninguém prestava atenção. Esse foi o caso do Slack, até que uma pessoa aborrecida postou sobre isso em um site da comunidade muito popular entre os desenvolvedores, e então aquela postagem viralizou... o que aconteceu aqui.

\n

Tudo começou ontem à noite, quando uma nota no Hacker News levantou a questão de como o Slack treina seus serviços de IA, por meio de um link direto para seus princípios de privacidade, nenhum comentário adicional era necessário. Aquela postagem iniciou uma conversa mais longa — e o que parecia ser novidade para os usuários atuais do Slack — que o Slack opta por padrão os usuários em seu treinamento de IA, e que você precisa enviar um e-mail para um endereço específico para cancelar a opção.

\n

Aquela conversa do Hacker News então suscitou várias conversas e perguntas em outras plataformas: Existe um produto novo, de nome genérico, chamado \"Slack AI\" que permite aos usuários buscar respostas e resumir threads de conversa, entre outras coisas, mas por que isso não é mencionado uma vez sequer pelo nome naquela página de princípios de privacidade de forma alguma, nem para deixar claro se a política de privacidade se aplica a ele? E por que o Slack faz referência tanto a 'modelos globais' quanto a 'modelos de IA'?

\n

Entre as pessoas confusas sobre onde o Slack está aplicando seus princípios de privacidade de IA e as pessoas surpresas e irritadas com a ideia de enviar um e-mail para cancelar a opção — em uma empresa que faz questão de promover que 'Você controla seus dados' — o Slack não sai bem na história.

\n

O choque pode ser novo, mas os termos não são. De acordo com páginas no Internet Archive, os termos são aplicáveis desde pelo menos setembro de 2023. (Pedimos à empresa para confirmar.)

\n

Conforme a política de privacidade, o Slack está usando dados do cliente especificamente para treinar 'modelos globais', que o Slack utiliza para alimentar recomendações de canais e emojis e resultados de busca. O Slack nos informa que o uso dos dados tem limites específicos.

\n

O Slack tem modelos de aprendizado de máquina em nível de plataforma para coisas como recomendações de canais e emojis e resultados de busca. Não construímos ou treinamos esses modelos de forma que eles possam aprender, memorizar ou ser capazes de reproduzir alguma parte dos dados do cliente," disse um porta-voz da empresa ao TechCrunch. No entanto, a política não parece abordar o escopo geral e os planos mais amplos da empresa para treinar modelos de IA.

\n

Em seus termos, o Slack diz que se os clientes optarem por sair do treinamento de dados, eles ainda se beneficiariam dos 'modelos AI/ML treinados globalmente' da empresa. Mas novamente, nesse caso, não fica claro por que a empresa está usando dados do cliente em primeiro lugar para alimentar recursos como recomendações de emojis.

\n

A empresa também disse que não usa dados do cliente para treinar o Slack AI.

\n

'O Slack AI é um complemento adicional comprado separadamente que usa Modelos de Linguagem Grandes (LLMs), mas não treina esses LMMs em dados do cliente. O Slack AI usa LLMs hospedados diretamente na infraestrutura da AWS do Slack, para que os dados do cliente permaneçam internos e não sejam compartilhados com nenhum provedor de LLM. Isso garante que os dados do cliente permaneçam sob controle da organização e exclusivamente para uso daquela organização,' disse um porta-voz.

\n

Alguma confusão provavelmente será abordada em breve. Em uma resposta a uma crítica no Threads do engenheiro e escritor Gergely Orosz, o engenheiro do Slack Aaron Maurer admitiu que a empresa precisa atualizar a página para refletir 'como esses princípios de privacidade se encaixam com o Slack AI.'

\n

Maurer acrescentou que esses termos foram escritos na época em que a empresa não tinha o Slack AI, e essas regras refletem o trabalho da empresa em torno de busca e recomendações. Valerá a pena examinar os termos para futuras atualizações, dada a confusão em torno do que o Slack está fazendo atualmente com sua IA.

\n

Os problemas no Slack são um lembrete contundente de que, no mundo acelerado do desenvolvimento de IA, a privacidade do usuário não deve ser uma reflexão tardia e os termos de serviço de uma empresa devem deixar claramente explícito como e quando os dados são usados ou se não são.