Tel. 697 249 701

Ética y Legalidad

La implementación de la inteligencia artificial (IA) en el campo de la medicina plantea una serie de problemas éticos y legales que deben abordarse para garantizar su uso responsable y beneficioso para el conjunto de la sociedad.

La IA puede aumentar la capacidad de los proveedores de atención de la salud para mejorar la atención al paciente, proporcionar diagnósticos precisos, optimizar los planes de tratamiento, apoyar la preparación y respuesta frente a las pandemias, fundamentar las decisiones de las instancias normativas en la esfera de la salud o asignar recursos en el marco de los sistemas de salud.  La IA también puede empoderar a los pacientes y las comunidades para que asuman el control sobre su propia atención médica y comprendan mejor unas necesidades que evolucionan.

Para lograrlo, los pacientes y las comunidades deben tener la seguridad de que sus derechos e intereses no estarán subordinados a los poderosos intereses comerciales de las empresas tecnológicas ni al interés de los gobiernos en la vigilancia y el control social. También es preciso que el potencial de la IA de detectar riesgos para la salud de los pacientes o la comunidad se incorpore en los sistemas de salud de una manera que promueva la autonomía y la dignidad humanas y no desplace a las personas del centro de la toma de decisiones en el ámbito de la salud.

La Organización Mundial de la Salud (OMS) en un documento publicado en el 2021, pidió precaución en el uso de herramientas que se sirven de grandes modelos lingüísticos generados por inteligencia artificial (IA) con el fin de proteger y promover la seguridad, autonomía y bienestar de las personas, y preservar la salud pública. 

Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos, en apoyo del personal de salud, los pacientes, la investigación y la ciencia, manifestó su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos. Ello incluye la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor en las evaluaciones. 

La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.

Learn how we helped 100 top brands gain success