Casa Business California avança medidas visando discriminação por IA e deepfakes

California avança medidas visando discriminação por IA e deepfakes

SACRAMENTO, Calif. (AP) — À medida que as corporações incorporam cada vez mais tecnologias de inteligência artificial na vida diária dos americanos, os legisladores da Califórnia querem construir confiança pública, combater a discriminação algorítmica e proibir deepfakes que envolvam eleições ou pornografia.

Os esforços na Califórnia — lar de muitas das maiores empresas de IA do mundo — poderiam abrir caminho para regulamentações de IA em todo o país. Os Estados Unidos já estão atrasados em relação à Europa na regulamentação da IA para limitar riscos, afirmam legisladores e especialistas, e a tecnologia em rápido crescimento está levantando preocupações sobre perda de empregos, desinformação, invasões de privacidade e viés de automação.

Uma série de propostas voltadas para abordar essas preocupações avançou na semana passada, mas precisa da aprovação da outra câmara antes de chegar à mesa do governador Gavin Newsom. O governador democrata promoveu a Califórnia como uma adotante precoce, bem como reguladora, dizendo que o estado em breve poderá implantar ferramentas de IA generativa para lidar com congestionamentos nas estradas, tornar as estradas mais seguras e fornecer orientações fiscais, mesmo enquanto sua administração considera novas regras contra a discriminação por IA nas práticas de contratação.

Com leis de privacidade sólidas já em vigor, a Califórnia está em melhor posição para promulgar regulamentações impactantes do que outros estados com grandes interesses em IA, como Nova York, disse Tatiana Rice, diretora-adjunta do Future of Privacy Forum, uma organização sem fins lucrativos que trabalha com legisladores em propostas de tecnologia e privacidade.

“Você precisa de uma lei de privacidade de dados para conseguir aprovar uma lei de IA”, disse Rice. “Ainda estamos prestando atenção ao que Nova York está fazendo, mas apostaria mais na Califórnia.”

Os legisladores da Califórnia disseram que não podem esperar para agir, citando lições difíceis que aprenderam ao deixar de controlar as empresas de mídia social quando poderiam ter tido a chance. Mas eles também querem continuar atraindo empresas de IA para o estado.

Veja mais de perto as propostas da Califórnia:

COMBATER A DISCRIMINAÇÃO POR IA E CONSTRUIR CONFIANÇA PÚBLICA

Algumas empresas, incluindo hospitais, já utilizam modelos de IA para definir decisões sobre contratação, habitação e opções médicas para milhões de americanos sem muita supervisão. Até 83% dos empregadores estão usando IA para ajudar na contratação, de acordo com a Comissão de Oportunidades Iguais de Emprego dos EUA. Como esses algoritmos funcionam, em grande parte, permanece um mistério.

Uma das medidas de IA mais ambiciosas na Califórnia neste ano abriria as cortinas sobre esses modelos ao estabelecer um framework de supervisão para prevenir viés e discriminação. Ela exigiria que as empresas que usam ferramentas de IA participem das decisões que determinam os resultados e informem as pessoas afetadas quando a IA é utilizada. Os desenvolvedores de IA teriam que fazer avaliações internas rotineiras de seus modelos para detectar viés. E o procurador-geral do estado teria autoridade para investigar relatos de modelos discriminatórios e impor multas de US$ 10.000 por violação.

Empresas de IA também podem em breve ser obrigadas a começar a divulgar quais dados estão usando para treinar seus modelos.

PROTEGER EMPREGOS E SEMELHANÇA

Inspirado pela greve de vários meses dos atores de Hollywood no ano passado, um legislador da Califórnia quer proteger os trabalhadores de serem substituídos por clones gerados por IA de sua autoria — um ponto de grande controvérsia nas negociações contratuais.

A proposta, apoiada pela Federação do Trabalho da Califórnia, permitiria que os artistas se retirassem de contratos existentes se linguagem vaga permitisse que estúdios usassem livremente a IA para clonar digitalmente suas vozes e semelhanças. Também exigiria que os artistas fossem representados por um advogado ou representante sindical ao assinar novos contratos de “voz e semelhança”.

A Califórnia também pode criar penalidades para clonagens digitais de pessoas falecidas sem o consentimento de seus herdeiros, citando o caso de uma empresa de mídia que produziu um especial falso de comédia de uma hora gerado por IA para recriar o estilo e material do falecido comediante George Carlin sem permissão de sua herança.

REGULANDO SISTEMAS PODEROSOS DE IA GERATIVA

Riscos do mundo real abundam à medida que a IA generativa cria novo conteúdo, como texto, áudio e fotos, em resposta a comandos. Assim, os legisladores estão considerando a imposição de salvaguardas em torno de sistemas de IA “extremamente grandes” que têm o potencial de gerar instruções para criar desastres — como construir armas químicas ou auxiliar em ataques cibernéticos — que poderiam causar pelo menos US$ 500 milhões em danos. Isso exigiria que tais modelos tivessem um “interruptor de desligamento” embutido, entre outras coisas.

A medida, apoiada por alguns dos mais renomados pesquisadores de IA, também criaria uma nova agência estadual para supervisionar desenvolvedores e fornecer as melhores práticas, inclusive para modelos ainda mais poderosos que ainda não existem. O procurador-geral do estado também seria capaz de tomar medidas legais em caso de violações.

PROIBINDO DEEPFAKES ENVOLVENDO POLÍTICA OU PORNOGRAFIA

Uma coalização bipartidária busca facilitar a persecução de pessoas que usam ferramentas de IA para criar imagens de abuso sexual infantil. A legislação atual não permite que os promotores distritais processem pessoas que possuem ou distribuem imagens de abuso sexual infantil geradas por IA se os materiais não estiverem retratando uma pessoa real, disse a polícia.

Uma série de legisladores democratas também apoiam um projeto de lei que aborda deepfakes eleitorais, citando preocupações após robôs de IA gerados terem imitado a voz do presidente Joe Biden antes das primárias presidenciais recentes de New Hampshire. A proposta proibiria deepfakes “materialmente enganosos” relacionados a eleições em malas políticas, telefonemas automáticos e comerciais de TV 120 dias antes do dia da eleição e 60 dias depois. Outra proposta exigiria que plataformas de mídia social rotulassem quaisquer postagens relacionadas a eleições criadas por IA.