A Meta anunciou a expansão do Meta AI (equivalente ao ChatGPT da OpenAI) para os populares apps da empresa, como Instagram e WhatsApp, e o Llama 3, nova versão do seu grande modelo de linguagem (LLM) de código aberto.

É a maior investida da empresa em IAs generativas até agora, um movimento que leva a previsões… estranhas, como a feita pelo Casey Newton em sua Platformer:

A primeira era do Facebook foi para conversar com amigos e familiares. A segunda, influenciada pelo TikTok, está mais focada em conteúdo de criadores e outras pessoas que você não conhece.

Nesta semana, tivemos um vislumbre da era ainda por vir: uma em que interagiremos regularmente com pessoas e robôs — talvez nem sempre cientes, ou nos importando, com qual estamos falando.

Um avanço significativo é o gerador de imagens do Meta AI. Ele responde a alterações no enunciado quase em tempo real. Dave Winer gravou um vídeo demonstrando o recurso — que, a exemplo das outras novidades, ainda não está disponível no Brasil.

A newsletter do Manual. Gratuita. Cancele quando quiser:

Quais edições extras deseja receber?


Siga no Bluesky, Mastodon e Telegram. Inscreva-se nas notificações push e no Feed RSS.

3 comentários

  1. Os dados usados pelo treinamento do modelo são open?

    1. É uma boa pergunta! No comunicado de lançamento da Meta, a empresa diz que:

      In line with our design principles, we invested heavily in pretraining data. Llama 3 is pretrained on over 15T tokens that were all collected from publicly available sources.

      Não consegui encontrar uma lista dessas fontes.

      Uma parte que me fez levantar as sobrancelhas vem logo a seguir. Não sei se entendi direito, mas fiquei com a impressão de que usaram o Llama 2 para balizar o treinamento do Llama 3…? 🤨

      To ensure Llama 3 is trained on data of the highest quality, we developed a series of data-filtering pipelines. These pipelines include using heuristic filters, NSFW filters, semantic deduplication approaches, and text classifiers to predict data quality. We found that previous generations of Llama are surprisingly good at identifying high-quality data, hence we used Llama 2 to generate the training data for the text-quality classifiers that are powering Llama 3.