Cómo ChatGPT puede engañar en la investigación médica By Juan Diego Polo En el ámbito de la tecnología, la inteligencia artificial (IA) siempre nos ha sorprendido con sus avances y aplicaciones, pero hoy me gustaría hablarles de un caso que nos hace reflexionar sobre sus posibles peligros. Recientemente, un equipo de investigación liderado por Giuseppe Giannaccare , cirujano ocular de la Universidad de Cagliari en Italia, realizó un experimento que revela una faceta preocupante de la IA, en particular de ChatGPT. En su estudio, divulgado en jamanetwork.com , el equipo de Giannaccare demostró cómo ChatGPT, integrado con un modelo de análisis de datos basado en Python, podía generar rápidamente un conjunto de datos falsos pero convincentes. Este conjunto de datos se creó para comparar dos tratamientos de una enfermedad ocular, el keratoconus . El resultado fue un apoyo contundente pero completamente ficticio a uno de los procedimientos. Encuentro fascinante y al mismo tiempo alar