Un algoritmo decide quien se vacuna antes.

Los algoritmos están decidiendo quién recibe las primeras vacunas. ¿Deberíamos confiar en ellos?
Los enfrentamientos sobre quién se vacuna primero podrían aumentar a medida que los suministros se extienden por todo el país. La transparencia sobre cómo funcionan estas fórmulas matemáticas es fundamental, dicen sus diseñadores.

Cuando los trabajadores de primera línea de la Atención Médica de Stanford fueron pasados por alto para la primera ola de vacunas contra el coronavirus, los funcionarios del hospital de Palo Alto, California, culparon al «muy complejo algoritmo» que había construido para decidir el lugar de los empleados en la fila.

Pero a diferencia de los sofisticados algoritmos de aprendizaje por máquina que sustentan la Internet moderna, el sistema de Stanford era en realidad sólo una fórmula básica, lo suficientemente simple para una hoja de cálculo de Excel. Y un desglose del algoritmo, enviado a los residentes médicos y publicado por primera vez por la MIT Technology Review, muestra que su verdadero error vino de los humanos que lo habían diseñado: a saber, priorizar a los empleados en base a la edad en lugar de su exposición al virus en el trabajo.

A medida que los gobiernos locales y los lugares de trabajo comienzan a desplegar la vacuna, muchos están recurriendo a algoritmos similares y a otros sistemas de puntuación con la esperanza de ordenar sus filas de forma justa y explicable. Muchas empresas ya han comenzado a encuestar a sus trabajadores en busca de datos que puedan introducir en la fórmula para obtener resultados limpios.
Pero el ejemplo de Stanford muestra cómo los algoritmos no son un sustituto de las políticas reflexivas – y lo rápido que las simples herramientas matemáticas pueden convertirse en chivos expiatorios de los fallos en la toma de decisiones de la gente.

Las culpas de los funcionarios de Stanford al algoritmo pasaron por alto el hecho de que el sistema simplemente seguía un conjunto de reglas establecidas por la gente. A los diseñadores de algoritmos les preocupa que echar la culpa a lo que de hecho son fórmulas matemáticas creadas por los humanos alimente la desconfianza del público en el despliegue de las vacunas.

El verdadero problema, argumentan, es la toma de decisiones arbitrarias y opacas que no involucran a las personas que serían las más afectadas por las decisiones. Si la forma en que funcionaba el algoritmo se hubiera discutido de antemano de forma más transparente, sostienen, los profesionales médicos habrían tenido más confianza en los resultados, o incluso, tal vez, habrían detectado el descuido de antemano.

Los algoritmos, sostienen, podrían desempeñar un papel importante para ayudar de manera rápida y equitativa a distribuir los suministros limitados de la vacuna a las personas que más la necesitarían. A diferencia de sus diseñadores humanos, los algoritmos no pueden ser presionados, intimidados, intimidados o sobornados, y aplican las mismas reglas a cada participante, sin prejuicios por cualquier relación personal o rencor.

Pero con la limitada orientación de la salud pública y tantos factores en juego, los algoritmos también podrían terminar siendo culpados cuando las cosas vayan mal. Su aplicación a la medicina que puede cambiar la vida sólo sirve para aumentar las apuestas.

«En esta enorme escala global, la respuesta no puede ser que la gente opere sólo con sus propios instintos y juicios», dijo Cat Hicks, investigadora científica principal que escribe algoritmos y construye modelos de predicción en la Academia Khan, una organización educativa sin fines de lucro.

Estos datos «nos dan la oportunidad de estar de acuerdo en algo, de definir un estándar de evidencia y decir que esto coincide con lo que todos acordamos», añadió. «Pero no se puede excluir a los humanos del proceso. Tiene que haber pruebas, verificaciones, creación de confianza para que tengamos más transparencia… y podamos pensar en ello: ¿Qué personas podrían quedar fuera?»
Estos enfrentamientos sobre la transparencia de la vacuna podría desempeñar un papel cada vez más importante a medida que los suministros se trasladan de los hospitales a los empleadores privados – y a medida que la gente se esfuerza por reanudar su vida normal. Un panel asesor de los Centros para el Control y la Prevención de Enfermedades recomendó el domingo que las personas mayores y los trabajadores de las industrias esenciales -incluidos los agentes de policía, los maestros y los trabajadores de las tiendas de comestibles- tengan acceso a las vacunas primero después de que se satisfagan las necesidades de atención de la salud.

Pero los algoritmos ya están jugando un papel clave en la decisión de los despliegues de la vacuna. Algunas de las primeras personas que fueron vacunadas en los Estados Unidos, a principios de este mes en el Hospital Universitario George Washington, fueron seleccionadas por un algoritmo que calificó su edad, condiciones médicas y riesgo de infección, dijo un funcionario federal al New York Times.

Los algoritmos también están guiando la distribución masiva de la vacuna por todo el país. La Operación Warp Speed de la administración Trump está utilizando Tiberius, un sistema desarrollado por la empresa de minería de datos Palantir, para analizar los datos de población y salud pública y determinar el tamaño y la prioridad de los envíos de vacunas a los estados individuales. El esfuerzo ya se ha visto empañado por la falta de comunicación de los suministros y los retrasos en los envíos.

El algoritmo de «puntuación de secuencia de vacunación» de Stanford utilizó un puñado de variables limitadas -incluyendo la edad de un empleado y la prevalencia estimada de infección de coronavirus por su función laboral- para puntuar a cada empleado y establecer su lugar en la fila. Las personas de 65 años o más, o de 25 años o menos, recibían una bonificación de 0,5 puntos.

Pero el problema, según algunos diseñadores de algoritmos, estaba en cómo se calculaban las diferentes puntuaciones. Un empleado de 65 años que trabaje desde casa obtendría 1,15 puntos añadidos a su puntuación, basados puramente en la edad. Pero un empleado que trabajara en un trabajo en el que la mitad de los empleados dieran positivo en el test de coronavirus obtendría sólo 0,5 puntos adicionales.

Esa falla en el sistema de puntaje, entre otras, frustró y confundió a los residentes médicos cuando vieron que los administradores de alto nivel y los médicos que trabajaban desde casa se vacunaban todos los días ante los profesionales médicos en las habitaciones de los pacientes. Sólo siete de los médicos residentes del hospital estaban entre los primeros 5.000 en la fila.

A diferencia de algoritmos más sofisticados, el puntaje de Stanford no parece haber agregado «peso» adicional a factores más importantes, lo que podría haber evitado que cualquier punto de datos, como la edad, sesgue excesivamente los resultados. Agravando aún más el problema: Algunos residentes dijeron a ProPublica que estaban en desventaja porque trabajaban en múltiples áreas del hospital y no podían designar un solo departamento, lo que disminuyó su puntuación.

Cuando docenas de residentes y otros inundaron el centro médico en protesta, un director de Stanford defendió el hospital diciendo que los expertos en ética y enfermedades infecciosas habían trabajado durante semanas para preparar un sistema justo pero que su «muy complejo algoritmo claramente no funcionaba». En un video de la escena, se puede escuchar a algunos manifestantes diciendo, «Joder con el algoritmo» y «Los algoritmos apestan».

En un correo electrónico a los residentes y becarios de pediatría obtenido por The Washington Post, los funcionarios dijeron que «el algoritmo de la vacuna de Stanford no dio prioridad al personal de la casa», como los jóvenes médicos y los residentes de la escuela de medicina, y que «esto nunca debería haber sucedido o haberse desarrollado de la manera en que lo hizo».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *