Casa Internet Microsoft proíbe departamentos de polícia dos EUA de usar ferramenta de inteligência artificial empresarial para reconhecimento facial

Microsoft proíbe departamentos de polícia dos EUA de usar ferramenta de inteligência artificial empresarial para reconhecimento facial

O Microsoft reafirmou sua proibição aos departamentos de polícia dos EUA de usar IA generativa para reconhecimento facial através do Azure OpenAI Service, o embrulho totalmente gerenciado e focado em empresas em torno da tecnologia OpenAI.

A linguagem adicionada na quarta-feira aos termos de serviço para o Azure OpenAI Service proíbe de forma mais clara a integração com o Azure OpenAI Service de ser usada 'por ou para' departamentos de polícia para reconhecimento facial nos EUA, inclusive integrações com os modelos de análise de imagem atuais — e possivelmente futuros — da OpenAI.

Um novo ponto de bala separado abrange 'qualquer aplicação da lei globalmente' e proíbe explicitamente o uso de 'tecnologia de reconhecimento facial em tempo real' em câmeras móveis, como câmeras de corpo e dashcams, para tentar identificar uma pessoa em ambientes 'fora de controle, na natureza'.

As mudanças na política ocorreram uma semana depois que a Axon, fabricante de produtos tecnológicos e armas para militares e aplicação da lei, anunciou um novo produto que utiliza o modelo de texto generativo GPT-4 da OpenAI para resumir áudio de câmeras de corpo. Críticos foram rápidos em apontar os possíveis problemas, como alucinações (mesmo os melhores modelos de IA generativa inventam fatos) e preconceitos raciais introduzidos a partir dos dados de treinamento (o que é especialmente preocupante, dado que pessoas de cor têm muito mais probabilidade de serem paradas pela polícia do que seus pares brancos).

Não está claro se a Axon estava usando o GPT-4 via Azure OpenAI Service e, em caso afirmativo, se a política atualizada foi em resposta ao lançamento do produto da Axon. A OpenAI havia anteriormente restringido o uso de seus modelos para o reconhecimento facial por meio de suas APIs. Entramos em contato com a Axon, a Microsoft e a OpenAI e atualizaremos esta postagem caso obtenhamos resposta.

Os novos termos deixam margem de manobra para a Microsoft.

A proibição completa da utilização do Azure OpenAI Service diz respeito apenas à polícia nos EUA, não internacional, e não cobre o reconhecimento facial realizado com câmeras fixas em ambientes controlados, como um escritório (embora os termos proíbam qualquer uso de reconhecimento facial pela polícia nos EUA).

Isso está de acordo com a abordagem recente da Microsoft e do parceiro próximo OpenAI em contratos relacionados com IA para aplicação da lei e defesa.

Em janeiro, a Bloomberg revelou que a OpenAI está trabalhando com o Pentágono em uma série de projetos, incluindo capacidades de cibersegurança — uma mudança em relação à proibição anterior da startup de fornecer sua IA para militares. Em outro lugar, a Microsoft sugeriu o uso da ferramenta de geração de imagens da OpenAI, DALL-E, para ajudar o Departamento de Defesa (DoD) a construir software para executar operações militares, segundo o The Intercept.

O Azure OpenAI Service ficou disponível no produto Azure Government da Microsoft em fevereiro, adicionando recursos adicionais de conformidade e gerenciamento voltados para agências governamentais, incluindo a aplicação da lei. Em um post no blog, Candice Ling, VP sênior da divisão Microsoft Federal focada no governo, prometeu que o Azure OpenAI Service seria 'submetido a autorização adicional' para o DoD para cargas de trabalho que apoiam missões do DoD.

Atualização: Após a publicação, a Microsoft disse que sua alteração original nos termos de serviço continha um erro e, na verdade, a proibição se aplica apenas ao reconhecimento facial nos EUA. Não se trata de uma proibição geral do uso do serviço pelos departamentos de polícia.