logo_medicina
Síguenos

La OMS pide “cautela” ante el uso de la Inteligencia Artificial en el ámbito sanitario

La organización explica que los datos utilizados para entrenar la IA pueden generar información engañosa que podría plantear riesgos para la salud

Compartir
La OMS pide “cautela” ante el uso de la Inteligencia Artificial en el ámbito sanitario

Por Andrea Martín

17 de mayo de 2023

La aplicación de la Inteligencia Artificial (IA) en el ámbito de la salud es cada vez mayor. Por ello, la Organización Mundial de la Salud (OMS) ha pedido que "se actúe con cautela" a la hora de usar herramientas generadas por esta tecnología, como es el caso de ChatGPT. Además, con el objetivo de proteger y promover el bienestar y la seguridad humana, han pedido que se “examinen cuidadosamente” para determinar cuáles pueden ser los riesgos.  

La inteligencia artificial, sin duda, ha pasado a ser una revolución en la historia de la humanidad. Las plataformas basadas en el modelo de lenguaje por IA imitan la comprensión, el procesamiento y la producción de la comunicación humana. De esta manera las plataformas son “entrenadas”, llegando a tener millones de parámetros en su base de datos, para dar respuestas acertadas y completas a casi cualquier pregunta que se le haga.

“Aunque la OMS está entusiasmada con el uso apropiado de las nuevas tecnologías para apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos, existe la preocupación de que la cautela que normalmente se ejercería para cualquier tecnología nueva no se está ejerciendo de manera coherente en este caso”, explica el organismo a través de un comunicado. Siguiendo esta línea, hacen hincapié en que la adopción precipitada de estos sistemas de IA no probados podría generar errores por parte de los trabajadores de la salud o causar daño a los pacientes.

La organización explica que los datos utilizados para entrenar la IA pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión. Además, las respuestas generadas “pueden ser completamente incorrectas o contener errores graves, especialmente para las respuestas relacionadas con la salud”.

Estas herramientas, según la OMS, pueden recibir datos para los cuales es posible que no se haya proporcionado previamente el consentimiento para su uso y no se puedan proteger los datos confidenciales (incluidos los datos de salud) que un usuario proporciona a una aplicación para generar una respuesta. Finalmente, explican que estas nuevas tecnologías pueden “usarse indebidamente para generar y difundir desinformación altamente convincente en forma de contenido de texto, audio o video que, para el público, sea difícil diferenciar del contenido confiable”.

La OMS propone que se aborden estas preocupaciones y se mida el beneficio de la IA con fines sanitarios antes de su uso. Por ello, insisten en que se utilicen de forma segura, ética y eficaz garantizando la seguridad y protección de los pacientes.



Te puede interesar
black-friday-cuando-comprar-pasa-a-ser-un-problema
Black Friday: cuando comprar pasa a ser un problema adictivo
El-hospital-viamed-montecanal-alcanza-cien-cirugias-robot-da-vinci
El Hospital Viamed Montecanal de Aragón alcanza las 100 cirugías con el robot Da Vinci
reducir-miedo-ansiedad-ninos-radioterapia-realidad-virtual
La realidad virtual reduce la ansiedad de los niños que se enfrentan a la radioterapia