La Organización Mundial de la Salud (OMS) pide precaución en el uso de herramientas que se sirven de grandes modelos lingüísticos generados por inteligencia artificial (IA) con el fin de proteger y promover la seguridad, autonomía y bienestar de las personas, y preservar la salud pública.
Entre dichas herramientas se cuentan algunas de las plataformas más pujantes, como ChatGPT, Bard, Bert y muchas otras que imitan el razonamiento, los procesos y la producción de la comunicación humana. Su meteórica difusión pública y creciente uso experimental en el ámbito de la salud está generando un considerable entusiasmo en torno a su potencial para atender necesidades de salud.
Es imperativo examinar cuidadosamente los riesgos que conlleva utilizar dichos modelos lingüísticos en la mejora del acceso a la información de salud, como herramienta de apoyo a la toma de decisiones, o incluso para fomentar la capacidad de diagnóstico en entornos de escasos recursos con el fin de proteger la salud de las personas y reducir la inequidad.
Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos, en apoyo del personal de salud, los pacientes, la investigación y la ciencia, ha manifestado su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos. Ello incluye la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor en las evaluaciones.
La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.
Los datos utilizados para entrenar la IA pueden estar sesgados, lo que generaría información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusividad.
Los grandes modelos lingüísticos generan respuestas que pueden parecen autorizadas y plausibles para el usuario final; pero cabe la posibilidad de que las respuestas sean totalmente incorrectas o que contengan errores graves, especialmente las vinculadas con la salud.
Puede que los grandes modelos lingüísticos estén entrenados con datos para cuyo uso no se haya obtenido consentimiento previo, y que no protejan los datos confidenciales (en particular los datos de salud) que un usuario introduzca en una aplicación para generar una respuesta.
Si bien la OMS tiene el compromiso de aprovechar las nuevas tecnologías, como la IA y la salud digital, para mejorar la salud humana, recomienda a las instancias normativas que garanticen la seguridad y protección del paciente, a la par que las empresas tecnológicas trabajan por comercializar los grandes modelos lingüísticos.
La OMS propone tener en cuenta y evaluar las pruebas que demuestren inequívocamente los beneficios de estas tecnologías antes de que pasen a utilizarse de forma generalizada en los servicios ordinarios de atención de salud y en la medicina, ya sea por particulares, proveedores de atención o administradores de sistemas de salud o instancias normativas.
Los seis principios fundamentales establecidos por la OMS son: 1) proteger la autonomía; 2) promover el bienestar y la seguridad de las personas y el interés público; 3) garantizar la transparencia, la claridad y la inteligibilidad; 4) promover la responsabilidad y la rendición de cuentas; 5) garantizar la inclusividad y la equidad; 6) promover una IA con capacidad de respuesta y sostenible.