Casa Internet Mulheres em IA: Allison Cohen sobre a construção de projetos AI responsáveis

Mulheres em IA: Allison Cohen sobre a construção de projetos AI responsáveis

Para dar às mulheres acadêmicas focadas em IA e a outros o merecido — e atrasado — tempo no centro das atenções, o TechCrunch tem publicado uma série de entrevistas focadas em mulheres notáveis que contribuíram para a revolução da IA. Estamos publicando esses artigos ao longo do ano, à medida que o boom da IA continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

No centro das atenções hoje: Allison Cohen, gerente sênior de projetos AI aplicados na Mila, uma comunidade com sede em Quebec de mais de 1.200 pesquisadores especializados em IA e aprendizado de máquina. Ela trabalha com pesquisadores, cientistas sociais e parceiros externos para implementar projetos de IA socialmente benéficos. O portfólio de trabalho de Cohen inclui uma ferramenta que detecta misoginia, um aplicativo para identificar atividades online de vítimas suspeitas de tráfico humano e um aplicativo agrícola para recomendar práticas agrícolas sustentáveis em Ruanda.

Anteriormente, Cohen foi co-líder em descoberta de medicamentos AI na Parceria Global em Inteligência Artificial, uma organização para orientar o desenvolvimento e uso responsável de AI. Ela também atuou como consultora de estratégia de IA na Deloitte e consultora de projetos no Centro de Política Digital Internacional, um think tank independente canadense.

Q&A

Brevemente, como você começou na área de IA? O que te atraiu para o campo?

A realização de que poderíamos modelar matematicamente tudo, desde o reconhecimento de rostos até a negociação de acordos comerciais, mudou a forma como eu via o mundo, o que tornou a IA tão cativante para mim. Ironicamente, agora que trabalho em IA, percebo que não podemos — e, em muitos casos, não devemos — capturar esse tipo de fenômenos com algoritmos.

Fui exposta à área enquanto completava um mestrado em assuntos globais na Universidade de Toronto. O programa foi projetado para ensinar aos alunos a navegar nos sistemas que afetam a ordem mundial — desde macroeconomia até lei internacional e psicologia humana. Conforme aprendi mais sobre IA, reconheci o quão vital ela se tornaria para a política mundial, e como era importante educar-me sobre o assunto.

O que me permitiu entrar na área foi um concurso de redação. Para o concurso, escrevi um artigo descrevendo como drogas psicodélicas ajudariam os humanos a se manterem competitivos em um mercado de trabalho cheio de IA, o que me qualificou para participar do Simpósio de St. Gallen em 2018 (foi um artigo de escrita criativa). Meu convite e participação subsequente no evento me deram a confiança para continuar perseguindo meu interesse na área.

Qual trabalho você mais se orgulha na área de IA?

Um dos projetos que gerenciei envolveu a construção de um conjunto de dados contendo instâncias de expressões sutis e explícitas de viés contra as mulheres.

Para este projeto, foi crucial o recrutamento e gerenciamento de uma equipe multidisciplinar de especialistas em processamento de linguagem natural, linguistas e especialistas em estudos de gênero durante todo o ciclo de vida do projeto. É algo do qual me orgulho muito. Aprendi em primeira mão por que esse processo é fundamental para a construção de aplicações responsáveis, e também por que não é feito o suficiente — é um trabalho árduo! Se você puder apoiar cada um desses envolvidos na comunicação eficaz entre disciplinas, poderá facilitar um trabalho que combina tradições de décadas das ciências sociais e desenvolvimentos de ponta em ciência da computação.

Também me orgulha que este projeto tenha sido bem recebido pela comunidade. Um de nossos artigos recebeu destaque no workshop de modelagem de linguagem socialmente responsável em uma das principais conferências de IA, a NeurIPS. Além disso, este trabalho inspirou um processo interdisciplinar semelhante que foi gerenciado pela AI Suécia, que adaptou o trabalho para se adequar às noções e expressões suecas de misoginia.

Como você navega pelos desafios da indústria de tecnologia dominada por homens e, por extensão, pela indústria de IA dominada por homens?

É lamentável que em uma indústria tão avançada, ainda estejamos vendo dinâmicas de gênero problemáticas. Isso não está afetando adversamente apenas as mulheres — todos nós estamos perdendo. Fui bastante inspirada por um conceito chamado "teoria do ponto de vista feminista" que aprendi no livro de Sasha Costanza-Chock, "Justiça no Design".

A teoria afirma que comunidades marginalizadas, cujo conhecimento e experiências não se beneficiam dos mesmos privilégios que outros, têm uma consciência do mundo que pode acarretar mudanças justas e inclusivas. Claro, nem todas as comunidades marginalizadas são iguais, assim como as experiências individuais dentro dessas comunidades.

Dito isso, uma variedade de perspectivas desses grupos é crucial para nos ajudar a navegar, desafiar e desmantelar todos os tipos de desafios estruturais e desigualdades. Por isso, a falta de inclusão das mulheres pode manter o campo da IA excludente para uma parcela ainda maior da população, reforçando dinâmicas de poder fora do campo também.

Em termos de como lidei com uma indústria dominada por homens, descobri que os aliados são bastante importantes. Esses aliados são produtos de relacionamentos fortes e de confiança. Por exemplo, tive muita sorte de ter amigos como Peter Kurzwelly, que compartilhou sua experiência em podcasting para me apoiar na criação de um podcast liderado e centrado em mulheres chamado “O Mundo que Estamos Construindo”. Este podcast nos permite elevar o trabalho de ainda mais mulheres e pessoas não binárias no campo da IA.

Que conselho você daria às mulheres que buscam entrar na área de IA?

Encontre uma porta aberta. Não precisa ser remunerado, não precisa ser uma carreira e nem mesmo precisa estar alinhado com seu histórico ou experiência. Se você encontrar uma abertura, poderá usar isso para aprimorar sua voz no espaço e construir a partir daí. Se você estiver voluntariando, dê o seu melhor — isso permitirá que você se destaque e, esperançosamente, seja remunerado pelo seu trabalho o mais rápido possível.

Claro, há privilégio em poder voluntariar, o que também quero reconhecer.

Quando perdi meu emprego durante a pandemia e o desemprego estava em alta no Canadá, poucas empresas estavam procurando talento em IA, e aquelas que estavam contratando não estavam procurando estudantes de assuntos globais com oito meses de experiência em consultoria. Enquanto procurava emprego, comecei a fazer trabalho voluntário com uma organização de ética em IA.

Um dos projetos nos quais trabalhei como voluntária era sobre se deveria haver proteção de direitos autorais para a arte produzida por AI. Entrei em contato com um advogado de um escritório de direito de AI canadense para entender melhor o espaço. Ela me conectou com alguém do CIFAR, que me conectou com Benjamin Prud'homme, diretor executivo da equipe de AI para a Humanidade da Mila. É incrível pensar que, através de uma série de trocas sobre arte de IA, aprendi sobre uma oportunidade de carreira que desde então transformou minha vida.

Quais são alguns dos problemas mais prementes enfrentados pela IA à medida que evolui?

Eu tenho três respostas para esta pergunta que são um tanto interconectadas. Acho que precisamos descobrir:

  1. Como conciliar o fato de que a IA é construída para ser escalável enquanto garantimos que as ferramentas que estamos construindo sejam adaptadas para atender ao conhecimento, experiência e necessidades locais.
  2. Se estamos construindo ferramentas adaptadas ao contexto local, vamos precisar incorporar antropólogos e sociólogos no processo de design de IA. Mas existem uma infinidade de estruturas de incentivo e outros obstáculos que impedem a colaboração interdisciplinar significativa. Como podemos superar isso?
  3. Como podemos afetar o processo de design de maneira ainda mais profunda do que simplesmente incorporar expertise multidisciplinar? Especificamente, como podemos alterar os incentivos de forma a projetar ferramentas construídas para aqueles que mais precisam delas, em vez daqueles cujos dados ou negócios são mais lucrativos?

Quais são alguns problemas com os quais os usuários de IA devem estar cientes?

A exploração de mão de obra é um dos problemas que não acho que receba cobertura suficiente. Existem muitos modelos de IA que aprendem com dados rotulados usando métodos de aprendizado supervisionado. Quando o modelo depende de dados rotulados, existem pessoas que têm que fazer esse rótulo (ou seja, alguém adiciona o rótulo “gato” a uma imagem de um gato). Essas pessoas (anotadores) muitas vezes são sujeitas a práticas exploratórias. Para modelos que não exigem que os dados sejam rotulados durante o processo de treinamento (como é o caso de alguns modelos de IA generativa e outros modelos básicos), conjuntos de dados ainda podem ser construídos de maneira exploratória no sentido de que os desenvolvedores frequentemente não obtêm consentimento nem oferecem compensação ou crédito aos criadores de dados.

Eu recomendaria conferir o trabalho de Krystal Kauffman, que fiquei muito feliz em ver apresentada nesta série do TechCrunch. Ela está avançando na defesa dos direitos trabalhistas dos anotadores, incluindo um salário digno, o fim das práticas de “rejeição em massa” e práticas de engajamento alinhadas com os direitos humanos fundamentais (em resposta a desenvolvimentos como vigilância intrusiva).

Qual é a melhor forma de construir AI de forma responsável?

Frequentemente, as pessoas recorrem aos princípios éticos de IA para afirmar que sua tecnologia é responsável. Infelizmente, a reflexão ética só pode começar após uma série de decisões já terem sido tomadas, incluindo, mas não se limitando a:

  1. O que você está construindo?
  2. Como você está construindo?
  3. Como será implantado?

Se você esperar até depois que essas decisões forem tomadas, terá perdido inúmeras oportunidades de construir tecnologia responsável.

Em minha experiência, a melhor forma de construir IA responsável é estar ciente — desde as primeiras etapas do seu processo — de como seu problema é definido e de cujos interesses ele satisfaz; como a orientação apoia ou desafia as dinâmicas de poder pré-existentes; e quais comunidades serão capacitadas ou desempoderadas pelo uso da IA.

Se você quiser criar soluções significativas, deve navegar sistematicamente por esses sistemas de poder.

Como os investidores podem pressionar melhor por uma IA responsável?

Pergunte sobre os valores da equipe. Se os valores forem definidos, em parte, pela comunidade local e houver um grau de responsabilidade para com essa comunidade, é mais provável que a equipe incorpore práticas responsáveis.