O engenheiro Blake Lemoine, do Google, acredita que a inteligência artificial LaMDA, apresentada pela empresa em 2021, é senciente. Acredita tanto que causou um rebuliço na empresa e fora dela, quebrando contratos de confidencialidade para provar seu argumento, até ganhar férias remuneradas do Google. A empresa nega que sua IA seja senciente.
LaMDA, abreviação em inglês para “modelos linguísticos para aplicações de diálogo”, é uma tecnologia que o Google emprega em vários dos seus produtos para predizer sentenças que humanos usariam. Não é senciente, é só uma inteligência artificial relativamente boa em regurgitar de forma coerente as toneladas de conteúdo escrito por seres humanos que o Google devora e processa.
A história de Lemoine, contada em ótima reportagem de Nitasha Tiku no Washington Post, envolve crenças transcendentais e alguns questionamentos interessantes. E ecoa o primeiro robô de conversação da história, o ELIZA.
Criado em 1966 por Joseph Weizenbaum, do Laboratório de Inteligência Artificial do MIT, o ELIZA emulava um terapeuta. Mesmo com uma lógica simples, a ilusão era forte o suficiente para fazer vários estudantes se abrirem com o programa. Via Washington Post (em inglês).
Perdeu um bom trabalho só para ganhar 15 minutos de fama ou provar seu “argumento”, que todo mundo para de se importar em alguns dias. No final, o que ganhou com isso além de ficar sem um emprego?
15 minutos de fama?