Nueva tecnología
Los expertos advierten sobre usar la nueva función sobre salud de Chat GPT como un médico de cabecera 24/7
El contexto OpenAi ha lanzado esta nueva función en la que han trabajado 260 profesionales sanitarios de 60 países y que invita a proprocionar datos clínicos para una respuesta más personalizada.

Resumen IA supervisado
El uso de la inteligencia artificial, como Chat GPT, para consultas médicas es cada vez más común, pero conlleva riesgos significativos. Aunque puede ofrecer respuestas rápidas a síntomas, expertos advierten contra el autodiagnóstico y la automedicación, recomendando siempre acudir a profesionales de la salud. Chat GPT Health, una nueva función, solicita historial médico para respuestas personalizadas, lo que preocupa a los expertos por el manejo de datos sensibles. Manuel Martínez Sellés, presidente del Colegio de Médicos de Madrid, enfatiza que la IA no debe sustituir el diagnóstico médico. Pedro Díaz Yuste aconseja no compartir información médica personal con la IA.
* Resumen supervisado por periodistas.
Recurrir a la inteligencia artificial (IA) para preguntar por nuestros problemas de salud es una práctica cada vez más extendida, pero también muy arriesgada. Los expertos ya avisan sobre una nueva función de Chat GPT, que solicita el historial médico del usuario para ser más preciso, respecto a la que piden evitar el autodiagnóstico y recurrir siempre a especilistas.
"Me dolía mucho el cuadro y le pregunté. Y yo justo me estaba poniendo calor y me recomendaba lo contrario", asegura un usuario de Chat GPT. No obstante, son muchos más los que recurren a este 'doctor' ante cualquier síntoma "antes que ir al médico (...) porque te da cita para una semana y cuando te atiende como tal pasan tres meses".
En definitiva, Chat GPT se ha convertido en una especie de médico de cabecera 24 horas, con las consultas a la inteligencia artifical ya disparadas. En concreto, este tipo de consultas a la inteligencia artificial la hacen más de 230 millones de personas en todo el mundo cada semana. Y es que si tenemos un dolor de barriga muy fuerte y no sabemos qué es o qué tomarnos para aliviarlo, para Chat GPT es tan fácil como describirle nuestros síntomas, lo que nos pasa y automáticamente dar un listado de respuestas y opciones.
Pero los expertos advierten sobre este recurso ya tan extendido. "Sí puede ser una ayuda al usuario, pero nunca puede ser utilizado como una herramienta diagnóstica y mucho menos para una precripcion directa de un tratamiento", asegura Manuel Martínez Sellés, presidente del Colegio de Médicos de Madrid.
Ahora, Chat GPT Health, en la que han trabajado 260 profesionales sanitarios de 60 países, invita a proprocionar datos clínicos para una respuesta más personalizada, es decir, solicita una información sensible que los profesionales rechazan que sean compartidos: "Si hablas con la IA generativa sobre salud mejor que hables en genérico, no le subas información médica tuya porque no sabes a donde va a ir", sostiene Pedro Díaz Yuste, CEO de Savia y director de salud digital de Mapfre. Y es que estos datos confidenciales es mejor que solo los conozca el paciente y el médico, puesto que solo el último tiene el conocimiento para saber cómo tratarte.
*Sigue a laSexta en Google. Toda la actualidad y el mejor contenido aquí.