Casa Business Colorado é o primeiro estado a avançar com a tentativa de regular o papel oculto da IA na vida americana

Colorado é o primeiro estado a avançar com a tentativa de regular o papel oculto da IA na vida americana

DENVER (AP) - As primeiras tentativas de regular programas de inteligência artificial que desempenham um papel oculto na contratação, habitação e decisões médicas para milhões de americanos estão enfrentando pressões de todos os lados e flutuando nas casas legislativas em todo o país.

Apenas um dos sete projetos de lei destinados a evitar a propensão da IA para discriminar ao tomar decisões consequentes - incluindo quem é contratado, dinheiro para uma casa ou cuidados médicos - foi aprovado. O governador do Colorado, Jared Polis, assinou o projeto de lei com hesitação na sexta-feira.

O projeto de lei do Colorado e aqueles que falharam em Washington, Connecticut e em outros lugares enfrentaram batalhas em muitas frentes, incluindo entre grupos de direitos civis e a indústria de tecnologia, e legisladores cautelosos em abordar uma tecnologia ainda pouco entendida e governadores preocupados em serem os esquisitos e assustar startups de IA.

Polis assinou o projeto de lei do Colorado "com reservas", dizendo em um comunicado que estava cauteloso com regulamentações que poderiam sufocar a inovação em IA. O projeto de lei tem uma vigência de dois anos e pode ser alterado antes de se tornar lei.

"Encorajo (os legisladores) a melhorar significativamente isso antes que entre em vigor", escreveu Polis.

A proposta do Colorado, juntamente com seis projetos de lei irmãos, é complexa, mas exigirá amplamente que as empresas avaliem o risco de discriminação de sua IA e informem os clientes quando a IA foi usada para ajudar a tomar uma decisão consequente para eles.

Os projetos de lei são separados de mais de 400 projetos de lei relacionados à IA que foram debatidos este ano. A maioria visa fatias da IA, como o uso de deepfakes em eleições ou para fazer pornografia.

Os sete projetos de lei são mais ambiciosos, se aplicando a grandes indústrias e visando a discriminação, um dos problemas mais perversos e complexos da tecnologia.

"Na verdade, não temos visibilidade dos algoritmos utilizados, se eles funcionam ou não, ou se estamos sendo discriminados", disse Rumman Chowdhury, enviado de IA do Departamento de Estado dos EUA, que anteriormente liderou a equipe de ética em IA do Twitter.

Embora as leis antidiscriminação já estejam em vigor, aqueles que estudam a discriminação da IA dizem que é uma besta diferente, na qual os EUA já estão atrasados em regulamentar.

"Os computadores estão tomando decisões tendenciosas em grande escala", disse Christine Webber, advogada de direitos civis que trabalhou em ações coletivas por discriminação, incluindo contra a Boeing e a Tyson Foods. Agora, Webber está próxima da aprovação final em uma ação coletiva por discriminação da IA.

"Não, devo dizer, que os sistemas antigos eram perfeitamente livres de viés também", disse Webber. Mas "qualquer pessoa só poderia analisar tantos currículos no dia. Então, você só poderia tomar tantas decisões tendenciosas em um dia e o computador pode fazê-lo rapidamente em grandes números de pessoas."

Quando você se candidata a um emprego, um apartamento ou um empréstimo, há uma boa chance de que a IA esteja avaliando sua inscrição: enviando-a para cima, atribuindo-lhe uma pontuação ou filtrando-a. Estima-se que até 83% dos empregadores usem algoritmos para ajudar na contratação, de acordo com a Comissão de Oportunidades Iguais de Emprego.

A IA em si não sabe o que procurar em uma inscrição de emprego, então é ensinada com base em currículos anteriores. Os dados históricos que são usados para treinar algoritmos podem introduzir viés.

A Amazon, por exemplo, trabalhou em um algoritmo de contratação que foi treinado em currículos antigos: principalmente candidatos do sexo masculino. Ao avaliar novos candidatos, ele rebaixou currículos com a palavra "de mulheres" ou que listaram faculdades para mulheres porque elas não estavam representadas nos dados históricos - os currículos - dos quais havia aprendido. O projeto foi cancelado.

A ação coletiva de Webber alega que um sistema de IA que pontua inscrições em aluguéis atribuiu pontuações mais baixas de forma desproporcional a candidatos negros ou hispânicos. Um estudo constatou que um sistema de IA construído para avaliar necessidades médicas passou por cima de pacientes negros para cuidados especiais.

Estudos e ações judiciais permitiram um vislumbre sob o capô dos sistemas de IA, mas a maioria dos algoritmos permanecem ocultos. Os americanos estão amplamente inconscientes de que essas ferramentas estão sendo usadas, mostram pesquisas do Pew Research. Geralmente, as empresas não são obrigadas a divulgar explicitamente que uma IA foi usada.

"Apenas puxar a cortina para que possamos ver quem está realmente avaliando e que ferramenta está sendo usada é um grande, grande primeiro passo", disse Webber. "As leis existentes não funcionam se não pudermos obter ao menos algumas informações básicas."

Isso é o que o projeto de lei do Colorado, juntamente com outro projeto de lei sobrevivente na Califórnia, estão tentando mudar. Os projetos de lei, incluindo uma proposta principal em Connecticut que foi arquivada sob oposição do governador, são em sua maioria semelhantes.

O projeto de lei do Colorado exigirá que empresas que usam IA para ajudar a tomar decisões consequentes para os americanos avaliem anualmente sua IA em busca de viés potencial; implementem um programa de supervisão dentro da empresa; informem ao procurador-geral do estado se for encontrada discriminação; e informem aos clientes quando uma IA foi usada para ajudar a tomar uma decisão para eles, incluindo uma opção de apelação.

Sindicatos e acadêmicos temem que a dependência de empresas que se supervisionam torne difícil abordar proativamente a discriminação em um sistema de IA antes que danos sejam feitos. As empresas temem que a transparência forçada possa revelar segredos comerciais, incluindo em litígios potenciais, neste novo campo hipercompetitivo.

As empresas de IA também pressionaram por, e geralmente receberam, uma disposição que permite apenas ao procurador-geral, não aos cidadãos, mover ações judiciais sob a nova lei. Os detalhes de implementação foram deixados para o procurador-geral.

Embora as maiores empresas de IA tenham mais ou menos concordado com essas propostas, um grupo de pequenas empresas de IA baseadas no Colorado disse que os requisitos podem ser gerenciáveis pelas gigantes empresas de IA, mas não pelas startups em crescimento.

"Estamos em uma nova era de sopa primordial", disse Logan Cerkovnik, fundador da Thumper.ai, referindo-se ao campo de IA. "Ter uma legislação excessivamente restritiva que nos force a definições e restrinja nosso uso de tecnologia enquanto isso está se formando só vai ser prejudicial à inovação."

Todos concordaram, juntamente com muitas empresas de IA, que o que é formalmente chamado de "discriminação algorítmica" é fundamental para abordar. Mas disseram que o projeto de lei, conforme escrito, não atinge esse objetivo. Em vez disso, propuseram fortalecer as leis antidiscriminação existentes.

Chowdhury teme que as ações judiciais sejam muito caras e demoradas para serem uma ferramenta eficaz de fiscalização, e as leis devem ir além do que o Colorado está propondo. Em vez disso, Chowdhury e acadêmicos propuseram uma organização credenciada e independente que possa testar explicitamente possíveis viés em um algoritmo de IA.

"Você pode entender e lidar com uma única pessoa que é discriminatória ou tendenciosa", disse Chowdhury. "O que fazemos quando isso está inserido em toda a instituição?"

Bedayn é membro do corpo da Iniciativa de Notícias Estaduais da Associated Press/Report for America. Report for America é um programa nacional de serviço sem fins lucrativos que coloca jornalistas em redações locais para relatar questões pouco cobertas.