La OMS pide “cautela” para incorporar las IA como ChatGPT en el ámbito sanitario

0
248
Una pestaña de la página web de ChatGPt en un ordenador, a 14 de abril de 2023, en Madrid (España). La Agencia Española de Protección de Datos ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa. La Agencia solicitó al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria, al considerar que los "tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos". Con el inicio de la investigación en España y la participación en el grupo de trabajo europeo, la AEPD actúa en paralelo en el marco de sus potestades y competencias como autoridad nacional de supervisión y control, además de en coordinación con sus homólogas europeas a través del Comité. 14 ABRIL 2023;CHATGPT;DATOS;AGENCIA DE PROTECIÓN DE DATOS;DATOS;NORMATIVA;PROTECCIÓN DE DATOS Eduardo Parra / Europa Press (Foto de ARCHIVO) 14/4/2023

Piden que estas IA “se utilicen de forma segura, eficaz y ética”

La Organización Mundial de la Salud (OMS) ha pedido que “se actúe con cautela” en el uso de herramientas de inteligencia artificial (IA) como ChatGPT en el ámbito sanitario y que se “examinen cuidadosamente” cuáles pueden ser sus riesgos en esta materia.

“Aunque la OMS está entusiasmada con el uso adecuado de las tecnologías para apoyar a los profesionales sanitarios, los pacientes, los investigadores y los científicos, preocupa que la cautela que normalmente se ejercería con cualquier tecnología nueva no se esté ejerciendo de forma coherente con estas IA”, ha advertido el organismo sanitario internacional de Naciones Unidas a través de un comunicado.

En este contexto, la OMS alerta de que la “adopción precipitada” de estos sistemas de IA “podría dar lugar a errores por parte del personal sanitario, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de estas tecnologías en todo el mundo”.

La OMS apunta, por ejemplo, que los datos utilizados para entrenar la IA “pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión”. Asimismo, indican que las respuestas de ChatGPT “pueden ser completamente incorrectas o contener errores graves, especialmente en el caso de las respuestas relacionadas con la salud”.

De la misma forma, avisan de que estas IA “pueden no proteger los datos sensibles (incluidos los datos sanitarios) que un usuario proporciona para generar una respuesta”. Por último, la OMS señala que “pueden utilizarse indebidamente para generar y difundir desinformación muy convincente en forma de contenidos de texto, audio o vídeo que el público difícilmente puede diferenciar de contenidos sanitarios fiables”.

Por todo ello, insisten en la necesidad de que estas IA “se utilicen de forma segura, eficaz y ética”. Así, piden a los responsables políticos que “garanticen la seguridad y la protección de los pacientes”.

Por favor , déjenos su comentario...