Siete riesgos de la inteligencia artificial en salud

Julio Jesús Sánchez García    4 agosto, 2022
riesgos-inteligencia-artificial-salud

La aplicación de la inteligencia artificial en salud representa grandes oportunidades, de las que ya he escrito en varias ocasiones. Y es que la agregación de los datos de salud procedentes de las historias clínicas electrónicas a los algoritmos puede permitir importantes avances, tanto científicos como en el cuidado inmediato de los pacientes. Si, además, somos capaces de incorporar los datos procedentes de nuestro genoma o de los weareables las posibilidades se magnifican. Aun así, hay implicaciones éticas y algunos riesgos de la inteligencia artificial en salud.

También los hemos abordado. La Comisión Europea ya publicaba en 2019 sus “Directrices éticas para una inteligencia artificial fiable”. Y este pasado mes de junio veía la luz otro interesante trabajo, procedente del Servicio de Investigación del Parlamento Europeo. Lleva por título “Inteligencia artificial en salud. Aplicaciones, riesgos e impactos éticos y sociales”.

Áreas de aplicación de la inteligencia artificial en salud

El estudio identifica cuatro grandes áreas de aplicación de la inteligencia artificial en salud:

  • Práctica clínica. Es el campo más desarrollado. Reinan los algoritmos de diagnóstico, especialmente los que parten de imágenes radiológicas o de procesamiento de señales, como electrocardiogramas o encefalografías. Pero la inteligencia artificial en este ámbito no solo puede favorecer el diagnóstico, también se están explorando otras posibilidades. El procesamiento del texto manuscrito de las historias clínicas o el análisis de voz de los pacientes para mejorar el proceso asistencial, por ejemplo.
  • Investigación biomédica. En este área se han desarrollado algoritmos para la búsqueda de información en las publicaciones científicas. También se está utilizando la inteligencia artificial en el desarrollo de nuevos medicamentos, para extraer información química de grandes bases de datos de compuestos y diseñar nuevos fármacos, así como para ayudar en los ensayos clínicos. Aquí se situa la medicina personalizada, orientada a entender cómo las características del individuo y su información genética influyen en el efecto que el medicamento va a tener sobre él y a personalizar dicho tratamiento.)
  • Estudios de salud pública. También se aplica la inteligencia artificial a los grandes conjuntos de datos poblacionales y de salud para conseguir insigths valiosos sobre epidemias, pandemias o tendencias en salud de los distintos grupos poblacionales.
  • Administración de los sistemas de salud. Aquí se hace un uso más clásico e informacional de la inteligencia artificial en la gestión del sistema, pero también se utiliza en campos como la normalización semántica de la información sanitaria cuando no se ha codificado en origen.

Riesgos de la inteligencia artificial en salud

El informe desglosa a continuación los peligros que conlleva la aplicación de la inteligencia artificial  en el campo de la salud:

1-Daños a los pacientes debido a errores en los algoritmos

Los algoritmos dedicados al diagnóstico de una enfermedad se entrenan a partir de muchísimos datos y luego se comprueban una y otra vez con otros conjuntos de datos de prueba. Se obtiene, así, un “algoritmo entrenado”. No obstante, no es perfecto y puede equivocarse tanto al identificar una enfermedad donde no la hay (falso positivo) como al ignorar un caso real (falso negativo). Todo esto puede suponer tratamientos inadecuados y programaciones o priorizaciones de intervenciones médicas incorrectas.

2-Mal uso de las herramientas de inteligencia artificial

Por supuesto, una vez diseñado, desarrollado y entrenado el algoritmo, lo usan personas. Típicamente, profesionales sanitarios. Estos deben tener formación y entender correctamente los usos y las limitaciones de dichas herramientas a la hora de ponerlas en práctica, para no caer en errores que puedan llevar a diagnósticos erróneos y potenciales daños a los pacientes.

El mal uso de las herramientas de inteligencia artificial cobra más relevancia cuando el resultado de los algoritmos se pone directamente en manos de los pacientes, que pueden malinterpretar los resultados si no tienen la adecuada información sobre los mismos, o esta se halla oculta en gigantescos e ilegibles términos de servicio.

3-Sesgos que perpetúan las desigualdades

Este es, sin duda, el peligro más documentado de los riesgos de la inteligencia artificial en salud. Los algoritmos se entrenan con datos pero esos datos no son “inocentes”. Por ejemplo, es posible que los datos que se hayan recogido de una determinada enfermedad de todos los pacientes que han pasado por un hospital durante un largo periodo de tiempo sean más en volumen y más fiables para un determinado colectivo (el de hombres blancos, casados, de mediana edad, con hijos, e ingresos medios-altos es un clásico).

Esa “desigualdad” en los datos termina trasladándose al algoritmo, que aprenderá a diagnosticar mejor a unos colectivos que a otros. Es algo que resulta de especial importancia cuando se le dan atribuciones a los algoritmos que, a mi juicio, no deberían tener, como priorizar la lista de espera para un trasplante. Si el algoritmo coge datos de trasplantes en el pasado y trata de priorizar en función de las probabilidades de supervivencia del paciente, introducirá necesariamente sesgos socioeconómicos y empezará a discriminar a los colectivos más desfavorecidos.

4-Falta de trasparencia

Un problema de los algoritmos en medicina es que ven cosas que nosotros no vemos… pero no sabemos qué. Se ha descubierto que un algoritmo puede detectar el sexo de una persona a partir de una retinografía. Es algo que un oftalmólogo no es capaz de hacer pero no es posible explicar qué encuentra el algoritmo en la imagen que lo lleva a dicha conclusión.

Cuando uno “entra” en las tripas del algoritmo solo encuentra un cúmulo sucesivo de operaciones algebraicas con matrices numéricas, en las que el “entrenamiento” ha modelado una serie de parámetros de las operaciones. Pero ninguno de esos parámetros da ninguna pista de algo que podamos entender en términos humanos. Ocurre como cuando observamos la comunicación entre las neuronas de nuestro cerebro: sabemos lo que están haciendo y lo que acaban deduciendo, pero nada de lo que vemos nos permite explicar el mecanismo que se sigue.

Hay dos niveles de transparencia necesarios: transparencia en cuanto al proceso de desarrollo y uso del algoritmo (trazabilidad) y transparencia en cuanto al proceso de deducción (explicabilidad).

5-Privacidad y seguridad

Incluso con una regulación profundamente garantista como la que nos ofrece el Reglamento General de Protección de Datos de la Unión Europea, la privacidad y seguridad de nuestros datos de salud es una preocupación constante de instituciones y ciudadanos. La inteligencia artificial añade un punto de estrés a esta preocupación, pues empresas o particulares pueden, de forma maliciosa, deducir información valiosa sobre nuestra salud para luego comercializarla o usarla de forma indebida.

6-Brechas en la responsabilidad

¿Cuál es la responsabilidad de un algoritmo? Y, ¿quién se hace cargo de ella: el desarrollador, quien proporcionó los datos, el que los usó? ¿Qué pasa cuando hay un daño a un individuo o a un colectivo y se busca al culpable? Hoy en día la regulación va muy por detrás de la tecnología y no es capaz de responder a estas preguntas, que están presentes desde el mismo momento en que se desarrollan los algoritmos y se ponen a trabajar.

7-Obstáculos a la aplicación práctica de los algoritmos en el mundo real

Muchas de las herramientas de inteligencia artificial se han desarrollado recientemente. Algunos  de los obstáculos que encuentran para ser puestas en valor en la práctica clínica habitual son:

  • Limitada calidad, estructura e interoperabilidad de los datos en historias clínicas electrónicas heterogéneas.
  • Posibles alteraciones en la relación médico-paciente debido a la introducción de herramientas médicas de inteligencia artificial.
  • Problemas en el acceso a los datos del paciente.
  • Falta de integración e interoperabilidad clínica y técnica de las herramientas de inteligencia artificial con las herramientas clínicas existentes.
  • Flujos de trabajo y sistemas electrónicos de salud obsoletos.

Por último, tras los riesgos de la inteligencia artificial en salud, el informe termina detallando los reglamentos existentes de aplicación al desarrollo de algoritmos de inteligencia artificial, así como los mecanismos de autocomprobación que sus creadores pueden poner en marcha. También expone las posibilidades que el Parlamento Europeo se encuentra a la hora de ampliar la regulación existente.

En resumen, ¡os animo a leer estas interesantes 85 páginas!: un tema candente para este caluroso verano.

Imagen: Shawn Carpenter

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada.