Principios para una inteligencia artificial ética en sanidad

Julio Jesús Sánchez García    10 febrero, 2022
inteligencia-artificial-etica-sanidad

Vivimos ya en un “mundo de algoritmos”, en el que nuestros datos personales se procesan continuamente con múltiples intenciones. Tanto para lo bueno como para lo malo. Pero una de las aplicaciones más útiles probablemente sea en sanidad. Pensad en la mejora de las técnicas de diagnóstico clínico o en el ajuste de tratamientos médicos para obtener el mejor resultado y los mínimos efectos adversos.

Una inteligencia artificial respetuosa, transparente, segura y justa

Hay, eso sí, cuestiones clave que tener en cuenta.

En este blog hemos escrito ya del potencial de transformación de la inteligencia artificial en sanidad. Pero también de las barreras a las que se va a enfrentar una vez que las pruebas de concepto demuestren su eficacia. Entre ellas, la carencia de unos procesos sanitarios integrados e informatizados o unos sistemas de información interoperables. Y también nos hemos referido a la vital importancia de aspectos éticos y legales para su desarrollo.

En esta línea, la semana pasada la Asociación DigitalES presentaba el informe “Inteligencia artificial ética en sanidad”, en el que ha colaborado Telefónica, entre otras compañías. El resultado del trabajo son unas recomendaciones para una inteligencia artificial respetuosa, transparente, segura y justa. Y las principales conclusiones son la necesidad de la implicación del profesional sanitario (combinación de hombre y máquina, con comprensión y conocimiento mutuo) y generación de confianza en la sociedad hacia el uso de la inteligencia artificial en salud.

«Los datos son siempre de las personas»

Juan Fernando Muñoz, secretario general de Salud digital del Ministerio de Sanidad, destacó en el encuentro la necesitad de que la ética sea un pilar fundamental en el desarrollo y uso de la inteligencia artificial en salud. La dignidad de las personas y la confidencialidad de sus datos – “los datos son siempre de las personas”-deben ser requisitos irrenunciables.

Así  se recoge ya en varios marcos normativos y recomendaciones en el ámbito español y europeo. El Espacio Nacional de Datos en Salud, que plantea la Estrategia Nacional de Salud Digital, recientemente publicada, contempla como prioridad la protección de datos (privacidad y seguridad) y los estándares éticos. Grupos de trabajo específicos se encargarán de garantizarlo.

Por su parte, José María Ramírez-Cárdenas, director de Asuntos públicos de Huawei, aprovechó la presentación del informe para referirse al PERTE de Salud de Vanguardia. Con ayuda de los fondos europeos, va a suponer un impulso para la modernización del sector sanitario en España y se deberían aprovechar las infraestructuras existentes para colocarnos a la cabeza de Europa en materia de eSalud -señaló.

Múltiples aplicaciones médicas de la inteligencia artificial

Albert Mayol, director de Business analytics de NTT DATA España, explicó que la inteligencia artificial se está aplicando ya en múltiples dimensiones de nuestro día a día. En el ámbito médico en concreto en campos como el diagnóstico, tratamientos personalizados, medicina preventiva, investigación biomédica, desarrollo de fármacos u optimización de recursos.

Recordemos, por ejemplo, su uso al servicio de la salud del corazón que hace Idoven o para una medicina personalizada con el proyecto Medea en Extremadura.

Seis principios para una inteligencia artificial ética en sanidad

Las principales recomendaciones del informe tienen que ver con seis retos o principios éticos:

  1. Transparencia y explicabilidad. Hay que conseguir que la inteligencia artificial se convierta en una herramienta útil para el profesional sanitario y que, a su vez, el paciente pueda entender los resultados de su uso.
  2. Privacidad. Los datos de los pacientes son sensibles y deben tratarse de forma rigurosa y responsable, respetando los motivos para los que se recaban.
  3. Calidad del dato y no discriminación. Se necesitan muchos datos pero no sirven de nada si no están correctamente codificados o hay algún tipo de sesgo, que favorezca a unos colectivos frente a otros.
  4. Robustez. Los algoritmos deben tener en cuenta los riesgos (seguridad) y ser auditables, de forma que los resultados puedan valorarse en todo momento desde el punto de vista de su eficacia y desde la ética.
  5. Autonomía versus supervisión. Hay que alcanzar un adecuado equilibrio entre la autonomía del sistema y la supervisión de profesionales que valoren los resultados.
  6. Regulación versus responsabilidad. Debe existir una regulación y estar claro el grado de responsabilidad de todos los agentes implicados en la construcción y el uso de los algoritmos.

A la presentación del informe acompañaron dos mesas redondas con figuras relevantes del ámbito sanitario y tecnológico.

En la primera de ellas se debatió sobre aspectos de las mencionadas recomendaciones. Santiago García, de la consejería de Sanidad del Gobierno de Cantabria dio detalles sobre el proyecto de inteligencia artificial que se está desarrollando en esta comunidad autónoma. Integra datos médicos y socio-económicos de más de 50.000 ciudadanos implicados en el estudio.

Retos de la industria tecnológica

Por su parte, Juan Carlos Sánchez, Health industry leader de IBM dio la visión de las empresas tecnológicas. Se refirió a los numerosos retos a los que se enfrentan en la creación de algoritmos de inteligencia artificial éticos. Para que esta industria se desarrolle y expanda su uso es necesario -dijo- tener normas claras en anonimización o detección de sesgos. También industrializar los procesos de desarrollo y control de los algoritmos en un modelo que garantice el cumplimiento de los principios éticos que se mencionan en el informe.

Carlos Morcillo, director médico del Hospital Digital de Sanitas habló de la aplicación práctica que están haciendo de la inteligencia artificial en asistentes virtuales y en telemedicina.

La formación de los profesionales y la comprensión y confianza de la sociedad

En el debate también se abordó la importancia de formación de los profesionales sanitarios en particular y de la población en general y de la responsabilidad de las Administraciones públicas en este sentido.

Se comentó, además, la necesidad de crear guías basadas en casos de usos concretos de cara a la formación de empresas y colectivos en el uso ético de la inteligencia artificial.

Una regulación para la «explicabilidad» y evitar sesgos

La segunda mesa de debate, en la que participó mi compañero Richard Benjamins, chief AI & Data strategist de Telefónica, se centró en los desafíos de la inteligencia artificial en el ámbito sanitario y en el equilibrio necesario entre ética e impulso a su desarrollo. En concreto, se debatió sobre la necesidad de una regulación clara y común para la Unión Europea en este sentido. Se dijo que debe tener en cuenta la “explicabilidad” de los resultados de los algoritmos en salud : deben ser transparentes y poder supervisarse. Y también debe evitar el peligro de la discriminación y los sesgos.

Por tanto, en el declive de la pandemia en el que esperamos estar ya, la inteligencia artificial vuelve a ser un área de desarrollo y máximas expectativas para la implantación de la salud digital en España. Precisamente de este tema hablaré próximamente en la VII Jornada de Salud Digital, a la que os animo a inscribiros.

Imagen: NASA’s Marshall Space Flight Center

Deja una respuesta

Tu dirección de correo electrónico no será publicada.