Vi vários prints na internet desse chatbot do Bing sendo completamente bizarro… Esse artigo mostra vários desses casos, desde o bot sendo passivo-agressivo, agressivo mesmo, e até tendo crise existencial.
Vi vários prints na internet desse chatbot do Bing sendo completamente bizarro… Esse artigo mostra vários desses casos, desde o bot sendo passivo-agressivo, agressivo mesmo, e até tendo crise existencial.
O NYTimes conversou por duas horas e publicou a íntegra. O bot desejou ser humano, queria destruir as coisas e disse estar apaixonado por quem conversava. Uma montanha-russa de sentimentos pontuados com emojis (para que tanto emoji?).
https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html
Parece que a Microsoft comprou uma nova Tay. Lembram desse chatbot (supostamente) inteligente que deveria aprender com o Twitter e acabou virando nazista?