ChatGPT no Windows, Bing no ChatGPT: As novidades em IA da Microsoft.
A Microsoft anunciou (mais) um punhado de coisas envolvendo inteligência artificial, em parceria com a OpenAI, na abertura do evento Build nesta terça (23):
- O Windows Copilot (vídeo) lembra muito as promessas da Cortana, porém sem uma interface de áudio, tudo por texto escrito/bate-papo. O lance de resumir PDFs e interagir com aplicativos de terceiros (Spotify, no exemplo) são bem legais.
- A Loja da Microsoft ganhou uma central de inteligência artificial (vídeo) destacando aplicativos do tipo.
- Já o Dev Home (vídeo) conecta o Windows 11 ao GitHub e reaproveita alguns recursos já existentes para facilitar e acelerar a criação de um ambiente de desenvolvimento.
- O mais interessante, do ponto de vista dos negócios, é que a parceria com a OpenAI virou uma relação de mão dupla com a chegada do Bing ao ChatGPT.
Impressiona o volume e a rapidez com que a Microsoft tem explorado a parceria com a OpenAI e colocado na praça produtos baseadas em IA. Via Microsoft (2) (3) (em inglês).
A parceria com a OpenAI tá sendo um respiro para a Microsoft e o Bing, né?
Achei legal esse Copilot, mas bem que poderiam ter integrado ele a Cortana – acho que se a MS faz isso, ela iria liderar o setor de assistentes pessoais que, acho eu, anda bem parado.
Uma pena só que tudo isso dependa de internet. Minha expectativa é que alguma outra empresa consiga disponibilizar esses modelos de linguagem offline, rodando no próprio dispositivo.
Você diz rodar o LLM direto no seu aparelho (telefone/PC)?
Isso será bem difícil de acontecer pela quantidade de processamento que isso envolveria (no momento, pode ser que role um modelo treinado “easy-to-go” que supra as demandas básicas, mas, mesmo assim, ele teria de ter acesso ao corpus.
Uma saída é você mesmo fazer um assistente. É relativamente fácil (em termos): treine um LLM com o seu domínio (corpus), rode com um dos algoritmos (o mais indicado pra perguntas/respostas é o BERT) e faça um “ChatGPT” customizado que roda no seu PC localmente. Ou no seu server.
PRa se ter uma ideia, esse é um artigo (muito bom) sobre rodar localmente o seu próprio LLM: