Anúncio NordVPN, a VPN mais rápida do mercado, com 68% de desconto

Inteligência artificial escreve o review de um iPhone

O Estadão conseguiu acesso ao GPT-3, um tipo de inteligência artificial (IA) desenvolvida pelo OpenAI e tida como o que há de melhor na redação autônoma de textos. O jornal colocou a IA para escrever o review do iPhone 11 Pro e… ok, é legível, mas parece ter sido escrito por alguém embriagado, além de conter erros factuais como dizer que o celular tem uma entrada USB-C (não tem) e que ele tem apenas uma câmera (tem quatro, três traseiras e uma frontal).

Review de celular é um tipo de texto que pode ser adaptado para modelos automáticos, porque os dados elementares, que guiam a redação, podem ser estruturados. A brincadeira de 1º de abril deste ano aqui no Manual é um rascunho rudimentar nesse sentido, embora não tenha nada de IA. O desafio do Estadão/GPT-3 é de outra natureza, e talvez a melhor saída esteja num meio termo entre as duas coisas — por exemplo, imagino que se incluirmos as tabelas de especificações do GSMArena na “receita”, os erros factuais básicos teriam sido evitados. Nas eleições municipais deste ano, o G1 adotou um modelo do tipo para produzir notícias de cada um dos 5.568 municípios brasileiros.

 

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

4 comentários

  1. Acho que faltou um pouco de calibragem e de entendimento sobre PLN para quem usou o GPT-3 pelo Estadão – não ficou claro se foram eles que usaram ou se alguém usou e enviou os resultados pra eles. A mesma coisa – quase – foi feita pelo Guardian e ficou bem mais legível: https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3

    Mas eles disseram que quem operou o GPT-3 pra eles foi o Liam Porr, um estudante de CiC que trabalha com PLN direto (inclusive, o bom blog dele sobre isso é um ótimo repositório de material analítico sobre PLN: https://adolos.substack.com/).

    Mas, de modo geral, a versão em inglês parece com tudo o que é produzido fora dos meios de quem lida com texto (Letras, Jornalismo, Publicidade) e que não passa por uma revisão e copidesque pesados.

    1. Um (): aquela tradução do Estadão não foi feita por um tradutor, no máximo um jornalista que acha que é tradutor, mesmo assim duvido, meu chute é que foi jogada num Google Tradutor da vida e depois (mal) revisada.

  2. Usar esses modelos para escrever texto me parece apenas “show-off”, imagino que útil para textos que precisam de urgência em altos volumes, como relatórios e resultados de jogos…mais que isso é meio sem sentido.

    Esses modelos não são interpretáveis, nunca se sabe direito o porquê do texto ter sido gerado de uma forma ou outra. Isso é menos grave para problemas com objetivos definidos – tradução, classificação, identificação de tópicos – mas para algo aberto como um texto final é sempre necessário revisão.

    1. Verdade. Se é necessário revisão pra textos humanos, imagina pra máquinas.

      Mas chuto que o problema principal é que os modelos são feitos por pessoas que, inegavelmente, não são “produtoras de texto” (por formação e por natureza). Trabalhei em projetos com pessoas da computação que era quase impossível entender o que estava escrito nos documentos de escopo e documentação de processos e programas novos. Se você coloca essas pessoas para treinar um modelo de linguagem natural, é de se esperar que ele não saia muito bom também =D

O site recebe uma comissão quando você clica nos links abaixo antes de fazer suas compras. Você não paga nada a mais por isso.

Nossas indicações literárias »

Do NOT follow this link or you will be banned from the site!