Microsoft e OpenAI anunciaram um fundo de US$ 2 milhões para combater os crescentes riscos de que a inteligência artificial e os deepfakes sejam utilizados para 'enganar os eleitores e minar a democracia'.
\Este ano verá um recorde de 2 bilhões de pessoas rumo às urnas em eleições que abrangem cerca de 50 países, havendo preocupações em relação à influência que a inteligência artificial terá entre os eleitores - especialmente os de 'comunidades vulneráveis' que podem ser mais susceptíveis a acreditar no que veem de maneira superficial.
\O surgimento da inteligência artificial generativa, incluindo os chatbots incrivelmente populares como o ChatGPT, levou a um novo grande panorama de ameaças envolvendo 'deepfakes' gerados por IA projetados para perpetuar a desinformação. Não ajuda o fato de que essas novas ferramentas estão amplamente disponíveis e permitem que qualquer pessoa crie vídeos, fotos ou áudio falsos de entidades políticas em destaque.
\Na última segunda-feira, a Comissão Eleitoral da Índia instou os partidos políticos a evitarem o uso de deepfakes e desinformação semelhante em suas campanhas online em torno das eleições.
\É nesse contexto que todas as grandes empresas de tecnologia, incluindo Microsoft e OpenAI, assinaram compromissos voluntários para combater esses riscos, bem como fizeram planos para construir um quadro comum para abordar os deepfakes criados explicitamente para enganar os eleitores.
\Em outros lugares, grandes empresas de IA começaram a abordar esses riscos introduzindo restrições em seus softwares. Por exemplo, o Google disse que não permitirá que seu chatbot de IA Gemini responda perguntas sobre eleições, enquanto a Meta, empresa-mãe do Facebook, também está limitando as respostas relacionadas às eleições através de seu chatbot de IA.
\Hoje, a OpenAI lançou um novo detector de deepfakes para pesquisadores de desinformação, projetado para ajudar a identificar conteúdo falso gerado por seu próprio gerador de imagens DALL-E, enquanto também se juntou ao comitê diretivo do organismo setorial Coalition for Content Provenance and Authenticity (C2PA), que já conta com membros como Adobe, Microsoft, Google e Intel.
\ \O novo 'fundo de resiliência social' faz parte desta mais ampla iniciativa de IA 'responsável', com a Microsoft e a OpenAI agora se esforçando para 'promover mais educação e alfabetização em IA entre os eleitores e comunidades vulneráveis', de acordo com um post no blog publicado pelas empresas hoje. Isso envolveria a concessão de subsídios a algumas organizações, incluindo Older Adults Technology Services (OATS), Coalition for Content Provenance and Authenticity (C2PA), International Institute for Democracy and Electoral Assistance (International IDEA) e Partnership on AI (PAI).
\De acordo com a Microsoft, esses subsídios têm o objetivo de criar uma melhor compreensão da IA e suas capacidades entre a sociedade. Por exemplo, a OATS aparentemente usará seu subsídio para programas de treinamento destinados a pessoas com 50 anos ou mais nos EUA, cobrindo os 'aspectos fundamentais da IA'.
\'O lançamento do Fundo de Resiliência Social é apenas um passo que representa o compromisso da Microsoft e da OpenAI em lidar com os desafios e necessidades no espaço de alfabetização e educação em IA', afirmou Teresa Hutson, vice-presidente corporativa de tecnologia e responsabilidade corporativa da Microsoft, no post do blog. 'A Microsoft e a OpenAI permanecerão dedicadas a este trabalho e continuaremos a colaborar com organizações e iniciativas que compartilham nossos objetivos e valores'.