O ChatGPT virou ferramenta de triagem médica para dezenas de milhões de usuários diariamente, segundo dados da OpenAI. Mas enquanto a conveniência atrai pacientes desesperados por respostas imediatas, especialistas alertam: a taxa de erro da IA em diagnósticos sem supervisão médica ultrapassa 50%, transformando uma solução prática em potencial bomba-relógio clínica.
Que fase…
10 comentários
A OpenAI está vendendo outro discurso: https://manualdousuario.net/orbita-post/en-chatgpt-health-e-o-que-a-ia-pode-fazer-por-um-sistema-quebrado/
Li o texto todo buscando a fonte dessa informação. O mais próximo a isso foi “estudos apontam”.
As vezes quereremos tanto que uma notícia seja verdade e corrobore com nossa visão de vida que baixamos a guarda de verificação e caímos e possíveis fake news ou notícias tendenciosas.
É bem esquisito mesmo. Mas, bem, não é que faltem estudos do tipo: https://arstechnica.com/science/2024/01/dont-use-chatgpt-to-diagnose-your-kids-illness-study-finds-83-error-rate/
Também não faltam estudos apontando boa acurácia do ChatGPT para questões de saúde, como este e este 🤷
eu apostaria que o chatgpt erra MENOS em diagnósticos do que médicos humanos.
adoraria ver um estudo sobre isso!
sem contar que o chatgpt pelo menos te ouve por mais de 5 minutos, coisa que médicos humanos não fazem mais.
Ninguém notou nada de estranho nessa matéria?
Escrito por AI? :D
🤔
Não vou dizer… 🙂
Como o Leonardo apontou, não há links para os estudos…
Procurei e parece não existir nenhum estudo para embasar o que diz no título.