Venho me perguntando há alguns dias. Em certo momento ficará difícil distinguir vídeos reais de vídeos gerados. Imagens tá bem próximo.
Certo dia teremos um vídeo, um artigo, imagens de decisões presidenciais totalmente fake, apoiada (claro, sempre), por uma grande distribuidora de mídia.
6 comentários
Eu não tenho preocupação com o uso da IA para um golpe de estado, porque as pessoas enganadas pela ferramenta, provavelmente, seriam enganadas por outros artifícios. A única diferença seria a sofisticação e qualidade empregada pela máquina.
Não precisamos ir longe, na época da pandemia tinham pessoas que acreditavam em vendedores de vacina online. Se voltarmos ao passado do Rei das Fake News que em 2006 dizia que se outro candidato ganhasse, o mesmo iria acabar com o Bolsa Família. E o povo acreditava!
Recentemente, uma rádio australiana usou IA como apresentador(a) por seis meses e ninguém percebeu. O Samy Dana que está utilizando IA nas notícias da Jovem Pan News, ou o Sérgio Sacani que usa IA em caráter experimentar nas publicações de notícias do Space Today.
Lendo o seu post já lembrei na hora de MGS2: https://youtu.be/jIYBod0ge3Y?si=X_wMFQJ2UP92B20n
O que me deixa mais confuso é se alguma lei nova poderia nos proteger…
Pelamor vira essa boca pra lá, com o perdão da terminologia!
Mas falando sério, se lembrar que nas últimas eleições (brasileiras e americanas) houve muita informação difundida com auxilio de IA – como os vídeos deepfakes e matérias provavelmente geradas por um LLM, na verdade já infelizmente estamos no meio disso. Só que tem um ponto: tudo que falei provavelmente teve alguma retificação humana para soar mais plausível, mais “humanamente feito”.
Só parando para pensar que “decisão presidencial” (ou criação de lei) é geralmente feita por humanos pois precisa ser ratificada os quês e porquês daquela lei. Como dito, talvez usem LLM para fazer um “texto mais rebuscado” ou “achar falhas de argumentação”. Mas não tem como uma lei não ter um dedo de humano – ao menos a decisão para uma lei ser vigente, mesmo feita por LLM/IA, ser aprovada É por humanos.
Então tipo, a “IA” per si só vai servir como (sempre dito pelo jornalista Marcelo Soares) um “gerador de lero-lero”. Aos poucos parece que há algum “despertar” sobre a diferença entre algo feito por IA (pois o caso do canguru como citado é algo que tá no limiar do absurdo) e algo mais “humano” (uma notícia falsa sobre um presidente fazer besteira ou uma decisão legal feita por um LLM). Uma lei gerada por IA seria bem esquisita se parar para pensar. Ao menos do jeito que hoje tais IAs vem fazendo.
Esse momento já chegou.
Só essa semana, geral achou fofo o canguru barrado no aeroporto (https://vm.tiktok.com/ZMShrgUqc/) e os golpes estão ainda mais sofisticados (https://vm.tiktok.com/ZMShr4xM7/).
A do Canguru eu vi no Instagram e precisei conferir nos comentários se era IA ou não. Depois me senti besta por ter acredito na história kkkkk