Não foi só o Bard do Google que cometeu erros durante a apresentação ao público. O chatbot do Bing, que usa a inteligência artificial (IA) da OpenAI, também pisou na bola, com erros até mais grosseiros que os do rival.
Eles foram detectados por Dmitri Brereton e divulgados em sua newsletter. Há informações desatualizadas de estabelecimentos mexicanos, características incorretas de um produto e, no erro mais surpreendente, o Bing errou dados do balanço da GAP — um tipo de dado estruturado e, em tese, mais fácil de serem processados por IAs.
O receio do Google em liberar ferramentas do tipo era bem fundamentado: IAs gerativas “falam” com tanta segurança que parecem estar certo, mas não há garantia alguma de que estejam. No estágio atual, são uma curiosidade fascinante.
Fosse um humano cometendo esses mesmos erros reiteradamente, sem jamais se ocupar de revisá-los ou desculpar-se, cairia em total descrédito. Por que uma inteligência artificial, prestes a ser posta à frente de bilhões de pessoas, não passa pelo mesmo escrutínio? Via DKB Blog (em inglês).