Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales.
Fuente Ambito
Un estudio científico comprobó que modelos como ChatGPT, Gemini y Grok pueden ser inducidos a responder con datos falsos sobre salud en tono convincente y con referencias inventadas a publicaciones médicas reales.
Fuente Ambito