Cómo ChatGPT puede engañar en la investigación médica

Cómo ChatGPT puede engañar en la investigación médica
By Juan Diego Polo

medico

En el ámbito de la tecnología, la inteligencia artificial (IA) siempre nos ha sorprendido con sus avances y aplicaciones, pero hoy me gustaría hablarles de un caso que nos hace reflexionar sobre sus posibles peligros. Recientemente, un equipo de investigación liderado por Giuseppe Giannaccare, cirujano ocular de la Universidad de Cagliari en Italia, realizó un experimento que revela una faceta preocupante de la IA, en particular de ChatGPT.

En su estudio, divulgado en jamanetwork.com, el equipo de Giannaccare demostró cómo ChatGPT, integrado con un modelo de análisis de datos basado en Python, podía generar rápidamente un conjunto de datos falsos pero convincentes. Este conjunto de datos se creó para comparar dos tratamientos de una enfermedad ocular, el keratoconus. El resultado fue un apoyo contundente pero completamente ficticio a uno de los procedimientos.

Encuentro fascinante y al mismo tiempo alarmante este descubrimiento. ¿Cómo afecta esto a la integridad de la investigación médica? La generación de datos falsos por parte de la IA no es solo un problema técnico; plantea serias cuestiones éticas y prácticas en la investigación científica. Si los investigadores no pueden distinguir entre datos reales y fabricados, ¿cómo pueden confiar en sus hallazgos?

El estudio publicado en la revista JAMA Ophthalmology, no solo resalta la capacidad de la IA para crear datos engañosos, sino que también muestra la necesidad de desarrollar métodos para detectar estos fraudes. Una peculiaridad que encontraron en los datos falsos fue la repetición inusual de edades terminando en 7 u 8, lo cual es un indicador de fabricación.

Curiosamente, la misma tecnología que crea el problema también podría ser parte de la solución. La IA tiene el potencial de convertirse en una herramienta crucial para identificar datos falsos en investigaciones científicas. Esto nos lleva a un punto crucial: la ética en el uso de la inteligencia artificial.

Como sociedad, estamos en una encrucijada con la tecnología de la IA. Por un lado, tiene el potencial de transformar positivamente muchos aspectos de nuestra vida. Pero, por otro, si no se utiliza de manera responsable, puede llevarnos por caminos peligrosos. El caso presentado por Giannaccare es un recordatorio de que debemos proceder con cautela y conciencia moral en la implementación de estas poderosas herramientas tecnológicas.

La pregunta es ¿quien va a querer generar millones de datos falsos para entregarlos al sector médico? La respuesta, por desgracia, es «mucha gente». Hospitales y centros de investigación de todo el mundo obtienen los datos de terceros, si uno de ellos decide «invertarse» los datos usando IA para ahorrar trabajo y generar dinero, tendremos el problema encima de la mesa.


La noticia Cómo ChatGPT puede engañar en la investigación médica fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.


November 30, 2023 at 09:30AM
SIGUENOS EN FACEBOOK: https://ift.tt/yn1ZCPD
SIGUENOS EN TWITTER: https://twitter.com/Techinford
via Wwwhat's new? https://ift.tt/jflWc2q

Comentarios

Entradas más populares de este blog

Cientos de youtubers se mudaron a Andorra por los impuestos: el Gobierno ahora quiere que demuestren un mínimo de catalán

Pixel 9 series release dates leaked: You could be waiting for a long time for your Pixel 9 Pro Fold

Spotify funcionará con la inteligencia artificial de Google: estas son las funciones que se han descubierto