Para lograrlo, los pacientes y las comunidades deben tener la seguridad de que sus derechos e intereses no estarán subordinados a los poderosos intereses comerciales de las empresas tecnológicas ni al interés de los gobiernos en la vigilancia y el control social. También es preciso que el potencial de la IA de detectar riesgos para la salud de los pacientes o la comunidad se incorpore en los sistemas de salud de una manera que promueva la autonomía y la dignidad humanas y no desplace a las personas del centro de la toma de decisiones en el ámbito de la salud.
La Organización Mundial de la Salud (OMS) en un documento publicado en el 2021, pidió precaución en el uso de herramientas que se sirven de grandes modelos lingüísticos generados por inteligencia artificial (IA) con el fin de proteger y promover la seguridad, autonomía y bienestar de las personas, y preservar la salud pública.
Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos, en apoyo del personal de salud, los pacientes, la investigación y la ciencia, manifestó su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos. Ello incluye la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor en las evaluaciones.
La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.