Casa Internet Arquivo IPO da Rubrik revela a formação de um comitê de governança de IA. Acostume-se com isso.

Arquivo IPO da Rubrik revela a formação de um comitê de governança de IA. Acostume-se com isso.

Embora esteja escondido no arquivamento IPO da Rubrik nesta semana - entre as partes sobre contagem de funcionários e declarações de custos - havia um pequeno detalhe que revela como a empresa de gerenciamento de dados está pensando sobre a inteligência artificial generativa e os riscos que acompanham a nova tecnologia: a Rubrik silenciosamente estabeleceu um comitê de governança para supervisionar como a inteligência artificial é implementada em seu negócio.

De acordo com o Formulário S-1, o novo comitê de governança de IA inclui gerentes das equipes de engenharia, produtos, jurídico e segurança da informação da Rubrik. Juntos, as equipes avaliarão os potenciais riscos legais, de segurança e de negócios de uso de ferramentas de IA generativa e ponderarão "medidas que podem ser tomadas para mitigar quaisquer riscos", diz o arquivamento.

Para ser claro, a Rubrik não é uma empresa de IA em sua essência - seu único produto de IA, um chatbot chamado Ruby que lançou em novembro de 2023, é construído em APIs da Microsoft e OpenAI. Mas, como muitos outros, a Rubrik (e seus investidores atuais e futuros) está considerando um futuro em que a IA desempenhará um papel crescente em seu negócio. Aqui está o motivo pelo qual devemos esperar mais movimentos como este no futuro.

Crescente escrutínio regulatório

Algumas empresas estão adotando melhores práticas de IA para tomar a iniciativa, mas outras serão pressionadas a fazê-lo por regulamentações como o AI Act da UE.

Denominada "a primeira lei abrangente de IA do mundo", a legislação histórica - prevista para se tornar lei em todo o bloco ainda este ano - proíbe alguns casos de uso de IA que são considerados trazer "risco inaceitável" e define outras aplicações "de alto risco". O projeto também estabelece regras de governança com o objetivo de reduzir riscos que possam escalar danos como viés e discriminação. Esta abordagem de classificação de risco provavelmente será amplamente adotada por empresas em busca de uma maneira fundamentada de avançar na adoção de IA.

O advogado de privacidade e proteção de dados Eduardo Ustaran, sócio da Hogan Lovells International LLP, espera que o AI Act da UE e suas inúmeras obrigações ampliem a necessidade de governança de IA, que por sua vez exigirá comitês. “Além de seu papel estratégico de conceber e supervisionar um programa de governança de IA, do ponto de vista operacional, os comitês de governança de IA são uma ferramenta chave para abordar e minimizar riscos”, disse ele. “Isso se deve ao fato de que, coletivamente, um comitê devidamente estabelecido e dotado de recursos deveria ser capaz de antecipar todas as áreas de risco e trabalhar com a empresa para lidar com eles antes que se materializem. Em certo sentido, um comitê de governança de IA servirá como base para todos os outros esforços de governança e fornecerá a tranquilidade necessária para evitar lacunas de conformidade.”

Em um recente documento de política sobre as implicações do AI Act da UE para a governança corporativa, a consultora de ESG e conformidade Katharina Miller concordou, recomendando que as empresas estabeleçam comitês de governança de IA como uma medida de conformidade.

Escrutínio legal

A conformidade não tem o único propósito de agradar os reguladores. O AI Act da UE tem consequências, e "as penalidades por não conformidade com o AI Act são significativas", observou o escritório de advocacia britânico-americano Norton Rose Fulbright.

Seu alcance vai além da Europa. "Empresas que operam fora do território da UE podem estar sujeitas às disposições do AI Act se realizarem atividades relacionadas à IA envolvendo usuários ou dados da UE", alertou o escritório de advocacia. Se for algo semelhante ao GDPR, a legislação terá um impacto internacional, especialmente diante do aumento da cooperação UE-EUA em relação à IA.

Ferramentas de IA podem colocar uma empresa em apuros além da legislação de IA. A Rubrik se recusou a fornecer comentários ao TechCrunch, provavelmente por causa de seu período de silêncio de IPO, mas o arquivamento da empresa menciona que seu comitê de governança de IA avalia uma ampla gama de riscos.

Os critérios de seleção e análise incluem a consideração de como o uso de ferramentas de IA generativa poderia gerar problemas relacionados a informações confidenciais, dados pessoais e privacidade, dados do cliente e obrigações contratuais, software de código aberto, direitos autorais e outros direitos de propriedade intelectual, transparência, precisão e confiabilidade do produto e segurança.

Tenha em mente que o desejo da Rubrik de cobrir as bases legais pode ser devido a uma variedade de outras razões. Por exemplo, pode também ser para mostrar que está antecipando responsavelmente problemas, o que é crítico, uma vez que a Rubrik já lidou anteriormente não apenas com vazamento de dados e hackeamento, mas também com litígios de propriedade intelectual.

Uma questão de ótica

As empresas não irão olhar para a IA apenas sob a ótica da prevenção de riscos. Haverá oportunidades que elas e seus clientes não querem perder. Essa é uma das razões pelas quais as ferramentas de IA generativa estão sendo implementadas, apesar das falhas óbvias, como "alucinações" (ou seja, uma tendência a fabricar informações).

Será um equilíbrio delicado para as empresas alcançarem. Por um lado, se vangloriar do uso de IA pode impulsionar suas valorações, não importando o quão real seja esse uso ou que diferença ele faça para o resultado final. Por outro lado, elas terão que tranquilizar sobre os riscos potenciais.

“Estamos neste ponto crucial da evolução da IA em que o futuro da IA depende muito se o público confiará em sistemas de IA e empresas que os utilizam”, escreveu o conselheiro de privacidade da provedora de software de privacidade e segurança OneTrust, Adomas Siudika, em um post no blog sobre o assunto.

Estabelecer comitês de governança de IA provavelmente será pelo menos uma maneira de tentar ajudar na questão da confiança.