ChatGPT no Windows, Bing no ChatGPT: As novidades em IA da Microsoft.

A Microsoft anunciou (mais) um punhado de coisas envolvendo inteligência artificial, em parceria com a OpenAI, na abertura do evento Build nesta terça (23):

  • O Windows Copilot (vídeo) lembra muito as promessas da Cortana, porém sem uma interface de áudio, tudo por texto escrito/bate-papo. O lance de resumir PDFs e interagir com aplicativos de terceiros (Spotify, no exemplo) são bem legais.
  • A Loja da Microsoft ganhou uma central de inteligência artificial (vídeo) destacando aplicativos do tipo.
  • Já o Dev Home (vídeo) conecta o Windows 11 ao GitHub e reaproveita alguns recursos já existentes para facilitar e acelerar a criação de um ambiente de desenvolvimento.
  • O mais interessante, do ponto de vista dos negócios, é que a parceria com a OpenAI virou uma relação de mão dupla com a chegada do Bing ao ChatGPT.

Impressiona o volume e a rapidez com que a Microsoft tem explorado a parceria com a OpenAI e colocado na praça produtos baseadas em IA. Via Microsoft (2) (3) (em inglês).

Newsletter

O Manual no seu e-mail. Três edições por semana — terça, sexta e sábado. Grátis. Cancele quando quiser.

Deixe um comentário

É possível formatar o texto do comentário com HTML ou Markdown. Seu e-mail não será exposto. Antes de comentar, leia isto.

3 comentários

  1. A parceria com a OpenAI tá sendo um respiro para a Microsoft e o Bing, né?

    Achei legal esse Copilot, mas bem que poderiam ter integrado ele a Cortana – acho que se a MS faz isso, ela iria liderar o setor de assistentes pessoais que, acho eu, anda bem parado.

    Uma pena só que tudo isso dependa de internet. Minha expectativa é que alguma outra empresa consiga disponibilizar esses modelos de linguagem offline, rodando no próprio dispositivo.

    1. Você diz rodar o LLM direto no seu aparelho (telefone/PC)?

      Isso será bem difícil de acontecer pela quantidade de processamento que isso envolveria (no momento, pode ser que role um modelo treinado “easy-to-go” que supra as demandas básicas, mas, mesmo assim, ele teria de ter acesso ao corpus.

      Uma saída é você mesmo fazer um assistente. É relativamente fácil (em termos): treine um LLM com o seu domínio (corpus), rode com um dos algoritmos (o mais indicado pra perguntas/respostas é o BERT) e faça um “ChatGPT” customizado que roda no seu PC localmente. Ou no seu server.

      1. PRa se ter uma ideia, esse é um artigo (muito bom) sobre rodar localmente o seu próprio LLM:

        You need to have storage at least 1TB but preferably 2TB just to be safe. It really sucks when you are 20 hours into a run and you run out of storage. do not recommend. I recommend to mount the storage at /workspace. install anaconda and git-lfs. Then you can set up your workspace. We will download the dataset we created, and the base model llama-7b.