Los chatbots de IA populares difunden información médica falsa, según investigadores de Mount Sinai
Texto reescrito en español nivel C1 con algunos errores/errores tipográficos (máx. 2): Los modelos generativos de IA más utilizados, como ChatGPT y DeepSeek R1, son extremadamente vulnerables a repetir y elaborar información médica errónea, según una nueva investigación. Investigadores del Monte Sinaí publicaron un estudio este mes que reveló que, al introducir términos médicos ficticios … Leer más