Casa Internet Esta Semana em IA: Quando 'código aberto' não é tão aberto

Esta Semana em IA: Quando 'código aberto' não é tão aberto

Acompanhar uma indústria tão dinâmica quanto a IA é um grande desafio. Então, até que uma IA possa fazer isso por você, aqui está um resumo útil das histórias recentes no mundo da aprendizagem de máquina, juntamente com pesquisas e experimentos notáveis que não cobrimos separadamente.

Nesta semana, o Meta lançou o mais recente de sua série Llama de modelos gerativos de IA: Llama 3 8B e Llama 3 70B. Capazes de analisar e escrever textos, os modelos são 'código aberto', disse o Meta - destinados a ser uma 'peça fundamental' de sistemas que os desenvolvedores projetam com seus objetivos únicos em mente.

'Acreditamos que esses são os melhores modelos de código aberto de sua classe, ponto final', escreveu o Meta em um post no blog. 'Estamos adotando o ethos de código aberto de lançamento frequente e antecipado'.

Só há um problema: os modelos Llama 3 não são realmente de código aberto, pelo menos não na definição mais rigorosa.

Código aberto implica que os desenvolvedores podem usar os modelos como escolherem, sem restrições. Mas no caso do Llama 3 - assim como no Llama 2 - o Meta impôs certas restrições de licenciamento. Por exemplo, os modelos Llama não podem ser usados para treinar outros modelos. E os desenvolvedores de aplicativos com mais de 700 milhões de usuários mensais devem solicitar uma licença especial do Meta.

Debates sobre a definição de código aberto não são novos. Mas à medida que empresas no espaço da IA brincam soltas com o termo, estão injetando combustível em discussões filosóficas de longa data.

No ano passado, um estudo co-autorado por pesquisadores da Universidade Carnegie Mellon, do Instituto AI Now e da Signal Foundation descobriu que muitos modelos de IA rotulados como 'código aberto' vêm com grandes pegadinhas - não apenas o Llama. Os dados necessários para treinar os modelos são mantidos em segredo. O poder computacional necessário para executá-los está além do alcance de muitos desenvolvedores. E o trabalho para ajustá-los é proibitivamente caro.

Então, se esses modelos não são verdadeiramente de código aberto, o que são, exatamente? Essa é uma boa pergunta; definir código aberto em relação à IA não é uma tarefa fácil.

Uma questão pertinente não resolvida é se o direito autoral, o mecanismo IP fundamental em que se baseia a licença de código aberto, pode ser aplicado aos vários componentes e peças de um projeto de IA, em particular a estrutura interna de um modelo (por exemplo, embeddings). Em seguida, há a necessidade de superar o descompasso entre a percepção de código aberto e como a IA realmente funciona: o código aberto foi concebido em parte para garantir que os desenvolvedores pudessem estudar e modificar o código sem restrições. Com a IA, porém, quais ingredientes você precisa para estudar e modificar estão abertos à interpretação.

Navegando por toda a incerteza, o estudo da Carnegie Mellon deixa claro o dano inerente em gigantes da tecnologia como o Meta apropriarem-se do termo 'código aberto'.

Com frequência, projetos de IA 'código aberto', como o Llama, acabam dando início a ciclos de notícias - marketing gratuito - e fornecendo benefícios técnicos e estratégicos aos mantenedores dos projetos. A comunidade de código aberto raramente vê esses mesmos benefícios, e quando vê, são marginais em comparação com os dos mantenedores.

Em vez de democratizar a IA, projetos de IA 'código aberto' - especialmente os das empresas de tecnologia gigantes - tendem a consolidar e expandir o poder centralizado, dizem os co-autores do estudo. É bom ter isso em mente da próxima vez que um grande lançamento de modelo 'código aberto' ocorrer.

Aqui estão algumas outras histórias de IA de destaque dos últimos dias:

  • O Meta atualiza seu chatbot: Coincidindo com a estreia do Llama 3, o Meta atualizou seu chatbot de IA em todas as plataformas do Facebook, Messenger, Instagram e WhatsApp - Meta AI - com um back-end alimentado pelo Llama 3. Também lançou novos recursos, incluindo geração de imagens mais rápida e acesso aos resultados da busca na web.
  • Pornografia gerada por IA: Ivan escreve sobre como o Conselho de Supervisão, conselho de política semi-independente do Meta, está voltando sua atenção para como as plataformas sociais da empresa lidam com imagens explícitas geradas por IA.
  • Marcas d'água do Snap: O serviço de mídia social Snap planeja adicionar marcas d'água a imagens geradas por IA em sua plataforma. Uma versão translúcida do logotipo do Snap com um emoji de brilho, a nova marca d'água será adicionada a qualquer imagem gerada por IA exportada do aplicativo ou salva na rolagem da câmera.
  • O novo Atlas: A Boston Dynamics, empresa de robótica de propriedade da Hyundai, apresentou seu robô humanoide Atlas de nova geração, que, ao contrário de seu antecessor movido a hidráulica, é totalmente elétrico - e muito mais amigável na aparência.
  • Humanoides em humanóides: Para não ser superada pela Boston Dynamics, o fundador da Mobileye, Amnon Shashua, lançou uma nova startup, MenteeBot, focada em construir sistemas de robótica bipedal. Um vídeo de demonstração mostra o protótipo do MenteeBot indo até uma mesa e pegando frutas.
  • Reddit, traduzido: Em uma entrevista com Amanda, o CPO do Reddit, Pali Bhat, revelou que um recurso de tradução de idiomas alimentado por IA para levar a rede social a um público mais global está em desenvolvimento, juntamente com uma ferramenta de moderação assistencial treinada nas decisões e ações passadas dos moderadores do Reddit.
  • Conteúdo gerado por IA no LinkedIn: O LinkedIn começou silenciosamente a testar uma nova maneira de aumentar suas receitas: uma assinatura para a página da empresa LinkedIn Premium, que - por taxas que parecem ser tão altas quanto US $ 99/mês - inclui IA para escrever conteúdo e um conjunto de ferramentas para aumentar o número de seguidores.
  • Um Indicador: A fábrica de ideias da Alphabet, controladora do Google, X, esta semana lançou o Projeto Bellwether, sua mais recente tentativa de aplicar tecnologia a alguns dos maiores problemas do mundo. Aqui, isso significa usar ferramentas de IA para identificar desastres naturais como incêndios florestais e inundações o mais rápido possível.
  • Protegendo as crianças com IA: A Ofcom, o órgão regulador encarregado de aplicar a Lei de Segurança Online do Reino Unido, planeja lançar uma exploração sobre como a IA e outras ferramentas automatizadas podem ser usadas para detectar e remover proativamente conteúdo ilegal online, especificamente para proteger as crianças de conteúdo prejudicial.
  • O OpenAI chega ao Japão: A OpenAI está se expandindo para o Japão, com a abertura de um novo escritório em Tóquio e planos para um modelo GPT-4 otimizado especificamente para o idioma japonês.

Mais aprendizados de máquina

Créditos da Imagem: DrAfter123 / Getty Images

Um chatbot pode mudar sua opinião? Pesquisadores suíços descobriram que não apenas podem mudar sua opinião, mas se estiverem pré-armados com algumas informações pessoais sobre você, eles também podem ser mais persuasivos em um debate do que um humano com essas mesmas informações.

'Isso é Cambridge Analytica em esteroides', disse o líder do projeto, Robert West, da EPFL. Os pesquisadores suspeitam que o modelo - neste caso, o GPT-4 - tirou de seus vastos bancos de argumentos e fatos online para apresentar um caso mais convincente e confiante. Mas o resultado fala por si mesmo. Não subestime o poder dos LLMs em questões de persuasão, alertou West: 'No contexto das próximas eleições nos EUA, as pessoas estão preocupadas porque é aí que esse tipo de tecnologia é sempre testada em batalha primeiro. Uma coisa que sabemos com certeza é que as pessoas usarão o poder de grandes modelos de linguagem para tentar influenciar a eleição'.

Por que esses modelos são tão bons em linguagem de qualquer maneira? Essa é uma área que tem uma longa história de pesquisa, remontando a ELIZA. Se você está curioso sobre uma das pessoas que esteve lá em muitas dessas pesquisas (e realizou não pouca quantidade dela), confira este perfil sobre Christopher Manning de Stanford. Ele acaba de ser premiado com a Medalha John von Neumann. Parabéns!

Em uma entrevista provavelmente intitulada provocativamente, outro pesquisador de longo prazo em IA (que também esteve no palco do TechCrunch), Stuart Russell, e o bolsista pós-doutorado Michael Cohen especulam sobre 'Como impedir que a IA nos mate a todos'. Provavelmente é uma boa ideia descobrir isso o mais rápido possível! Não é uma discussão superficial, no entanto - são pessoas inteligentes discutindo como podemos realmente entender as motivações (se essa é a palavra certa) dos modelos de IA e como as regulamentações devem ser construídas em torno deles.

Stuart Russell sobre como tornar a IA 'compatível com humanos'

A entrevista é na verdade sobre um artigo na Science publicado no início deste mês, no qual eles propõem que AIs avançadas capazes de agir estrategicamente para alcançarem seus objetivos (o que chamam de 'agentes de planejamento de longo prazo') podem ser impossíveis de testar. Basicamente, se um modelo aprender a 'entender' o teste que deve passar para ter sucesso, ele pode muito bem aprender maneiras criativas de negar ou contornar esse teste. Já vimos isso em pequena escala, então por que não em grande escala?

Russell propõe restringir o hardware necessário para criar tais agentes… mas é claro, o Laboratório Nacional de Los Alamos (LANL) e o Laboratório Nacional de Sandia acabaram de receber suas entregas. O LANL acabou de ter a cerimônia de corte de fita para Venado, um novo supercomputador destinado à pesquisa em IA, composto por 2.560 chips Nvidia Grace Hopper.

Pesquisadores exploram o novo computador neuromórfico. Créditos da imagem: Craig Fritz / Sandia National Labs

E a Sandia acabou de receber 'um extraordinário sistema de computação baseado em cérebro chamado Hala Point', com 1,15 bilhão de neurônios artificiais, construído pela Intel e acreditado ser o maior sistema desse tipo no mundo. A computação neuromórfica, como é chamada, não é destinada a substituir sistemas como o Venado, mas busca novos métodos de computação que sejam mais semelhantes ao cérebro do que a abordagem bastante centrada em estatísticas que vemos nos modelos modernos.

'Com este sistema de um bilhão de neurônios, teremos a oportunidade de inovar em escala tanto novos algoritmos de IA que podem ser mais eficientes e mais inteligentes do que os algoritmos existentes, quanto novas abordagens baseadas em cérebro para algoritmos de computador existentes, como otimização e modelagem', afirmou o pesquisador da Sandia, Brad Aimone. Parece ótimo... simplesmente ótimo!