“Aguente firme!”

Neste texto (em inglês), a Rach conta que conversava por mensagem com um amigo a respeito de um tema delicadíssimo (o câncer da mãe dele; ela perdeu a mãe para um câncer há 13 anos), quando, em um momento de hesitação/reflexão, a “IA” do aplicativo de mensagens sugeriu uma resposta para ela enviar:

Aguente firme!

A reação dela:

Meu fluxo de pensamento foi imediatamente interrompido enquanto eu contemplava como aquilo [a sugestão] seria uma coisa absolutamente imprópria de enviar naquele momento.

O exemplo me chamou a atenção para algo que as empresas de IA omitem: quando elas falam que a tecnologia “entende o contexto”, o que querem dizer é, na verdade, que ela entende o contexto que está documentado/codificado. O que, não raro, é insuficiente. Das inevitáveis lacunas brotam sugestões impróprias, como o “aguente firme!” sugerido à Rach.

Será que uma IA, ainda que alimentada por todo o conhecimento codificado que a humanidade já produziu, será um dia capaz de entender a dor de ver um ente querido ser devorado por uma doença agressiva?

A newsletter do Manual. Gratuita. Cancele quando quiser:

Quais edições extras deseja receber?


Siga no Bluesky, Mastodon e Telegram. Inscreva-se nas notificações push e no Feed RSS.

7 comentários

  1. Uma pessoa que nunca perdeu ninguém, principalmente dessa forma com tanta dor e sofrimento dificilmente vai ser empática, não generalizando, claro, mas é o princípio para esse tipo de sentimento, sentir a dor do outro e demonstrar empatia. Geralmente é mais complicado. Se a ia não conhece essa pessoas, não tem o histórico de vida dela, acredito que fica mais complicado ainda de entender. Vou te contar uma pequena história recente:

    Recentemente minha sogra foi chamada para acompanhar a vizinha dela ao hospital, é um idosa, esta realmente muito debilitada, mas os filhos e netos estavam ocupados de mais para ficar no hospital com ela. Minha sogra foi, ele é assim, gosta de ajudar outras pessoas mesmo que seja um estranho. A reação minha e da minha esposa foi:
    – “Poxa, mas a sra (minha sogra) não precisa fazer isso, não sua responsabilidade”.

    Posso estar indo longe de mais com minha colocação, mas viu que nem todo mundo entende o motivo que levou ela a ir ficar com a vizinha idosa dela? talvez seja algo que só ela entende da vida da vizinha, ele tem o contexto, a vivencia e sabe mais coisas que eu e minha esposa, então pra ela não é tão complicado assim ter empatia, mas ao mesmo tempo os familiares estavam ocupados de mais para fazer o mesmo.

    Humanos nem sempre são empáticos e queremos transferir isso para uma IA? ta de sacanagem!

    1. O ponto é que uma linguagem em resposta a uma questão social que tem um peso emocional não deveria ser seca. De fato, não dá para se esperar “empatia” a toda hora. Ao mesmo tempo, como eu disse no comentário, não dá para se considerar uma IA como CVV, algo que até vem ocorrendo com pessoas pesquisando questões psicológicas à uma LLM. Ou como posto no texto, a sugestão de texto interpretar uma situação que pede empatia, mas ao mesmo tempo botar a pior resposta possível sobre.

      Como você mesmo põe no exemplo, há contextos, e as respostas mais empáticas sairão de pessoas próximas. Mas ao mesmo tempo, não posso “me intrometer” e dar algum comentário em situações que deveríamos respeitar. Como o erthard disse, no final a IA deste tipo é intrometida.

  2. Dificilmente uma IA irá realmente ter algum tipo de empatia com alguém, já que no fim do dia ela opera na base de números, e números basicamente podem ser torturados e usados para torturar e colocar gaslight em qualquer um

  3. Sobre a reação: as vezes entendo o “Aguente firme!” como uma espécie de cinismo, dependendo do contexto (como a pessoa é, o histórico de conversas, etc…). Só que sinto que é um cinsmo que muitas vezes só quer dizer que “é o acaso que acontece, não tem muito o que fazer a não ser esperar pelos resultados dos esforços no futuro”. A vida de fato, quando vivida de forma cínica, é meio que o isolamento dos próprios sentimentos, para (tentar) evitar uma “dor maior”, um sofrimento sobre o que pode vir a acontecer, como se o resultado sempre fosse negativo.

    Uma IA é uma criação de um humano, ou a soma de informações que humanos alimentaram à ela, seja em dados, seja em programação. Pessoas que programam e tenham senso social diferente, mais “humanizado”, provavelmente não vão fazer uma máquina dar uma resposta estúpida à questões sentimentais, sociais, que possam causar uma reação desconfortável. Mas parte de quem programa e/ou alimenta as informações pode ter sentimentos cínicos ou entender uma resposta cínica é uma resposta neutra.

    Uma IA não é um Centro de Valorização da Vida, ou psicólogo. É um código programado a entender um contexto enviado e responder com um conjunto de informações baseados nesta questão enviada. Toda e qualquer resposta será “seca”, baseada em uma lógica que não entenderá nuances sociais. Não é um entendimento do sentimento, mas sim apenas uma resposta a uma informação. Um computador não vai abraçar ou chorar junto. Um computador talvez ache a cura do cancer, mas isso quando programado para isso. Aí é outra história.

  4. O quanto a IA é de fato geradora de algo novo ou apenas a automatização do plágio em escala nunca antes vista?
    O fato de não entender o contexto neste caso acima, e mais grave, ler as mensagens dos usuários, faz dela uma inútil xereta que alguns dizem estar sempre “aprendendo”.

  5. Espero que nem tenham a pretensão. Já imaginou uma IA agente psicólogo?

    1. Já tem gente que usa assim

      Aliás, a primeira “IA” realmente funcional criada foi a ELISA, que simula uma sessão psicológica