Ultimamente tenho usado bastante o ChatGPT pra resumir textos da web como notícias/artigos pra ter uma ideia do que se trata antes de ler o texto todo. Quem nunca se deparou com um texto longo que quando se chega no meio já estamos cansados e lá se foram uns 10/15 minutos?
Como fazer pra confiar num resultado ou pelo menos detectar inconsistências sobre um assunto o qual não se domina? Isso torna o chatgpt (e afins) um mero passatempo? Eu sou da área da saúde e sempre que pego um artigo nesse contexto tenho uma visão bem aguda na hora de interpretar o que ele entrega, mas quando é um assunto que não domino fico receoso de confiar e me questiono se vale a pena continuar – perdendo tempo? – usando essas ferramentas…
Pergunto isso porque quando o resumo me deixa satisfeito muitas vezes eu nem leio o artigo, mas será que a informação foi assertiva? Ou alucinou? A maioria dos resumos quando vou ler o artigo batem as informações mas lembro que no início alguns llm’s viajavam muito nos resumos.
Bluesky, Mastodon, Telegram e RSS
No início usava muito para resumir textos, mas fui notando o quanto estava deixando de me aprofundar nos textos. Parei!
Hoje uso muito o Claude (sei da polêmica da Antrophic) como um assistente. Questões como rotinas semanais de estudos, correções de textos, traduções de textos do pt-br pars en e vice-versa.
na minha cabeça não faz o menor sentido “usar IA para escrever textos que ninguém quer escrever e que serão resumidos com IA para quem não quer ler” (tá entre aspas porque li em algum lugar, não lembro onde).
Também ouvi(li?) algo assim: e-mails escritos por IA de um lado e respondidos por IA do outro e no fim ninguém se comunica, é só lixo eletrônico.
Existem maneiras eficazes de lidar com conteúdos que exigem informações precisas. Nesse contexto, prefiro utilizar o Google NotebookLM, onde insiro toda a base de dados. As informações geradas pela IA são extraídas exclusivamente do material fornecido como conhecimento. Se você utilizar a IA de forma simples, como em uma pesquisa no Google, ela pode gerar um texto baseado no treinamento e em informações da internet, o que pode resultar em alucinações. No entanto, ao usar ferramentas e prompts específicos para garantir que tudo seja criado com base no conhecimento fornecido, a qualidade das informações melhora significativamente.
A boa notícia é que pra tarefas como essas, as chances de alucinação diminuem bastante, pois os resultados da IA serão restringidos pelo conteúdo do arquivo que você forneceu.
Porém, dependendo da importância do texto, eu não aconselharia apenas dar uma lida num resumo gerado pela IA, mas sim iniciar uma “conversa” com a IA sobre o documento em questão, onde você vai fazendo perguntas bem específicas sobre o conteúdo.
Na verdade, há indícios que alucina sim.
https://ea.rna.nl/2024/05/27/when-chatgpt-summarises-it-actually-does-nothing-of-the-kind/
Quando o chat “resume”, na verdade ele encurta o texto, o que, para muitos textos, elimina exatamente sua parte importante.
E ele também pode te dar o material de treinamento em vez do texto a ser resumido.
Estou no meio acadêmico e tenho desenvolvido um artigo. Muitos colegas comentam sobre usar IA para acelerar a escrita, mas não tive boas experiências com ChatGPT, nem mesmo com NotebookLM da Google (que você fornece as fontes), que davam resultados muito rasos na área de estudo que abordo. Acho que a IA é uma crescente e teremos que lidar com ela gerando textos relativamente vazios e inflados, e sinto que essa premissa de economia de tempo com o uso de IA cria na verdade mais um passo a se realizar com o fact-checking infinito de qualquer coisa que ela produz.
Eu, na verdade, não uso essas IAs generativas pra nada. Às vezes entro naquela integração que tem com o duckduckgo pra brincar e tentar fazer elas caírem em contradição ou expor os próprios criadores kkk
No geral, eu consigo entender o fascínio, entender que pode ser útil pra algumas coisas, mas eu não conheço uma única pessoa que trabalha menos porque usa IA, apesar do argumento sempre ser o fato de que ela facilita várias coisas que antes davam um trabalhão.
Esses dias no trabalho meu chefe falou que temos que usar IA pra escrever código porque “todo mundo usa e estamos ficando pra trás”. E eu fiquei pensando sobre essa necessidade de produzir software numa velocidade/volume que só uma máquina é capaz de fazer. Pra que exatamente? Onde a gente quer chegar com mais “produtividade”?
A gente tá num momento tão limitado que tecnologia de ponta virou sinônimo de supercomputadores trabalhando pra tentar agir como um humano (e falhando miseravelmente, já que, naturalmente, não são humanos). O que é bizarro, porque o potencial dos computadores é exatamente não ser um humano.
É tanta coisa pra falar sobre isso, mas vou parar por aqui.
eu sinto a mesma coisa… minha gerente fica falando pra usar AI, mas mtas vezes o tempo q eu gasto arrumando um prompt q preste para dar o resultado q gostaria, eu já teria escrito aquilo eu mesma sem usar AI. pq eu vou gastar energia pra uma coisa q eu conseguiria fazer sozinha no mesmo tempo só pq alguém falou q é melhor?
A grande questão é que um bom prompt pode ser usado várias vezez, para vários fins, precisando (as vezes) de uma mínima adaptação. Produzir textos, resumos, análises várias vezes sempre do zero pode ser massante, cansativo, e demorado.
estou passando por coisa parecida no meu trabalho. a pergunta é justamente essa, “para que isso?”
também não uso IA generativa para nada. fiz alguns testes, mas como eu desconfiava de tudo acabava me dando o dobro de trabalho para fazer a verificação. aí sempre tem alguém pra falar “ah mas nas próximas versões vai ficar tudo muito melhor, perfeito”. acho incrível como a coisa acabou se tornando profissão de fé.
a única ferramenta de IA que eu vi ser útil até hoje foi o plugin de VSC para escrever testes (codium); esse eu uso bastante, mas só.
“ Isso torna o chatgpt (e afins) um mero passatempo?”
Sim. Você matou a charada. Esses modelos hoje são “basicamente” algoritmoes alimentados com quantidades massivas de dados. Não tem compreensão, e, principalmente, não tem criatividade. Essas ferramentas, nos moldes de hoje NUNCA conseguirão sugerir uma solução que nunca foi pensada, já que ele basicamente chupinha coisas que já foram pensadas.
Essas ferramentas são ótimas para tarefas mecânicas e repetitivas. Transformar uma série de linhas que deveriam ser colinas e a cada x linhas seriam outras linhas. Escrever um script pra fazer isso demoraria mais. Mas se forem muitos dados, esquece pq o chat gpt quebra quando o output é muito longo.
Logo, se for importante, passe longe dos resumos (se sua carreira depende disso por exemplo, ou se envolver perder dinheiro). Se não for importante, vale pensar, porque resumir ou mesmo porque sequer consumir aquele texto em primeiro lugar?
Olha, tem umas newsletters longuíssimas que eu adoro mas assim, toda semana e tal, mto conteúdo pra ler. Gosto do chat pra resumir porém me prolongo no prompt de falar pra ele “sumarizar” não só o editorial mas os outros pontos
Topei com este “teste” feito pelo governo da Austrália. Segundo a notícia, “artificial intelligence is worse than humans in every way at summarising documents and might actually create additional work for people, a government trial of the technology has found”.
Conscientemente, não consumo.
No caso de artigos acadêmicos, o abstract (resumo) existe justamente para isso. Em outros textos, as técnicas de redação recomendam que isso esteja no parágrafo de introdução.
Se o texto é longo e não deixa claro a que se propõe logo no início, pode ser sinal de que está mal redigido (ainda que tenha algo de bom). E nada impede de fazer um “sobrevoo” pelo texto: ver títulos, negritos, pular para o parágrafo de conclusão, por exemplo. Se não é um texto de ficção, tudo bem levar “spoiler”. E bem lembrado pelo JoaoM: usar o Ctrl+F.
Acho que vale mais a pena investir em técnicas de leitura do que usar ChatGPT e ficar sempre com esse “frio na barriga”. Recomendo o “Método SQ3R”, que conheci no livro SOUZA, Ismar. Como ler mais e melhor.
Agora, se quiser se aprofundar pra valer, indico o clássico ADLER, Mortimer J. DOREN, Charles Van. Como ler livros.
Quanto é um texto muito técnico fora da minha área de conhecimento, um texto acadêmico cheio de referências de autores que desconheço, uso o ChatGPT para me explicar as referências. Até para textos em livros, é só tirar uma foto do parágrafo em questão.
Claro que quando é importante vou atrás dos autores citados e sempre passo um google também para confirmar as informações. Mas é uma super mão na roda.
Eu não uso Chat GPT para isso, quando o artigo me interessa eu reservo um tempo e leio por completo.
E por favor, não use a palavra assertivo (dizer/afirmar com convicção) no lugar de certeiro (de acertar mais).
Se o texto é interessante, leio normalmente. Se é chato mas estou buscando uma informação específica faço uma “leitura dinâmica” ou um Ctrl F pelo termo desejado. Pedir pra IA resumir parece mais trabalhoso e impreciso que isso.
Também faço leitura dinâmica mas só às vezes, sempre cansa. Pedir pra ia resumir não é trabalhoso não, um ctrl+F no computador ou um atalho no iOS já copia tudo e ele entrega um resumo entre 100 e 200 palavras. A questão é quanto a precisão mesmo e se pessoas tem usado isso com frequência ou se é má prática.
Hoje o meu uso de IA se resume a pedir pra criar arquivos de configuração e JSONs da vida que, normalmente, dão muito trabalho. Outro uso bom é mandar um texto e pedir as tabela sem markdown (quando se precisa fazer uma tabela de 20×4 isso ajuda muito).
Hoje aqui no órbita, mandaram explicações feitas via ChatGPT que saíram ainda mais confusas. Pareciam resumos para quem já entendeu o assunto.
Dá o que pensar, não?
Acho que eu vi isso. Foi o que me motivou criar esse post haha.
As vezes tenho dificuldade de perceber quando incorro no erro, quem nunca?
Uso a IA com curiosidade e na esperança de que melhore, mas temo estar condicionando meu comportamento de uma forma não saudável. Criando uma espécie de preguiça crônica em ler os textos, tornando minha visão das coisas superficial.
Simplificar as coisas não exige criatividade? Veja que é diferente de resumir. Me parece que, quando você entende o assunto, procura um resumo; mas quando não entende, procura na simplificação.
Seria um bom critério antes de aceitar o resumo da IA?
Faço não só com alguns textos que encontro, mas também consumo os resumos de notícias da Brown Pipe feitos dessa forma. Entretanto, quando vejo algo mais interessante tento deixar ele salvo pra ler com calma posteriormente. As vezes funciona
Sim, com essa cultura do clickbait é como um antídoto pra mim, ajuda a filtrar muita coisa irrelevante aos meus interesses. O problema é quando são textos complexos de assuntos que não domino, peço pra ele (bot) traduzir, e como verificar a veracidade e exatidão vai querer um esforço as vezes maior do que estou disposto a dedicar a um artigo aleatório, muitas vezes me contento com a resposta, sempre cético, mas me pergunto se com o tempo essa prática pode se tornar nociva. Me lembrou um livro de Pierre bayard “como falar sobre os livros que não lemos” e sua defesa da não-leitura, não dá pra consumir tudo.