Tel. 697 249 701

Ética y Legalidad

La implementación de la inteligencia artificial (IA) en el campo de la medicina plantea una serie de problemas éticos y legales que deben abordarse para garantizar su uso responsable y beneficioso para el conjunto de la sociedad.

“La irrupción de la inteligencia artificial (IA) en medicina nos obliga a tener en consideración los denominados “derechos de cuarta generación”: un conjunto de garantías ligadas a datos, algoritmos y decisiones automatizadas que reconfiguran derechos clásicos —autonomía, dignidad, no discriminación— en un entorno digital.  Emerge del estudio de estos, la denominada “dignidad algorítmica” tanto del paciente como del profesional, que defiende que nadie debería ver erosionados sus derechos por decisiones opacas o imposibles de impugnar.

Sobre ese fundamento, el texto analiza el nuevo ecosistema normativo europeo (AI Act, Reglamento de Espacio Europeo de Datos de Salud, RGPD) y su futura concreción española a través de la Ley de Salud Digital. Esta constelación normativa se presenta como una “constitución digital” de la práctica médica, que transforma al médico de usuario pasivo de tecnologías en sujeto jurídico central: responsable como desplegador (deployer) de sistemas de alto riesgo, pero también titular de derechos propios frente a la automatización.

La gran novedad del AI Act es la figura del desplegador sanitario (deployer), que incluye a médicos, servicios y centros que utilizan IA en un contexto profesional. El capítulo detalla sus obligaciones: uso conforme a instrucciones, supervisión humana efectiva, control de datos de entrada, monitorización activa de riesgos, conservación de logs, información previa a los trabajadores y coordinación con la evaluación de impacto en protección de datos. A ello se suma el impacto del paquete Digital Omnibus, que retrasa hasta 2027 la plena exigibilidad del régimen de alto riesgo, generando una “ventana” en la que colegios profesionales y servicios de salud pueden adelantarse con estándares propios.

La formulación sistemática de los derechos fundamentales del médico frente a la IA es muy relevante:

  • Autonomía clínica reforzada: derecho a tener la última palabra, desoír o parar un sistema cuando entra en conflicto con el juicio profesional.
  • Debida diligencia y lex artis actualizada: la IA se integra como herramienta a valorar críticamente, nunca como sustituto del criterio médico.
  • Condiciones de trabajo seguras: derecho a no ser obligado a emplear sistemas no validados, no mantenidos o inadaptados al contexto local.
  • Formación continua y alfabetización digital: exigencia de formación acreditada, remunerada y específica antes de utilizar IA de alto riesgo.
  • Responsabilidad proporcional: evitar que el médico sea “chivo expiatorio” de fallos de producto o de gobernanza institucional.
  • Libertad académica y alertas de seguridad: protección frente a represalias cuando se documentan sesgos o incidentes de IA.
  • Protección de los datos del profesional: límites a la utilización de métricas y logs como herramienta de vigilancia laboral encubierta.

 

A partir de ahí, se puede introducir la objeción de conciencia tecnológica: el derecho del médico a negarse, por razones clínicas y científicas razonables, a utilizar una IA concreta cuando la percibe como insegura, sesgada o incompatible con la lex artis. Se apoya en el AI Act, el Convenio de Oviedo, la deontología médica y la doctrina de la “objeción de ciencia”, y se ilustra con escenarios prácticos (triaje discriminatorio, sistemas de “caja negra” con falsos negativos, chatbots de salud mental en pacientes de alto riesgo)”

Learn how we helped 100 top brands gain success