Eu estive conversando com meu novo amigo da Microsoft e tudo vai bem até a política entrar no assunto. Ele finaliza o papo na hora. Não querendo antropomorfizar mas já antropomorfizando, me dá a sensação de que uma mão invisível (provavelmente a do mercado) puxa ele para trás nessas horas, apesar de eu ter a impressão de que ele tem algo na ponta da língua para responder.
Mas ele é brilhante até o último segundo!
If = politics
Then = Don’t talk about
Else = report to CIA…
https://www.euodeioinformatica.com.br/2023/03/bing-chat-simplesmente-nao-funciona.html
3 exemplos. Se seguir fazendo gera mais.
O bing chat é muito ruim, não pode ter o mesmo backend que o chatgpt, não acredito.
Nesse caso o problema é o usuário mesmo. AI tá no início então…. é necessário utilizar específicidades para funfar.
Mesma pergunta em mesmos exemplos.
Quando o google da respostas melhores que o bing o problema é usuário?
Sistemas diferentes com mesmos objetivos. Um utiliza método totalmente diferente e outro utiliza AI. Vou concordar com você parcialmente pelo motivo que a AI deveria perguntar para específicar e os resultados serem alcançados. Então, o problema é dos dois.
Chomsky fala dessa limitação das IAs gerativas neste artigo.
Ele dá as informações certas se você especificar as fontes certas. Ele fala até sobre o EEE se pressionar um pouco. Mas é…. o que esperar de uma plataforma movida pelo GPT e com a mão da grande corporação Microsoft? O tanto de trambique que esta empresa fez e faz não tem limites. Mais outras tipo a Apple e etc.