Pandemia, 1 - Inteligencia artificial, 0: la promesa de un algoritmo que permitiera luchar contra la COVID-19 jamás se cumplió

Javier Pastor

Las expectativas de que la tecnología ayudara a minimizar los efectos de la pandemia de COVID-19 eran enormes. Sin embargo junto aldescalabro de las aplicaciones de rastreo de contactostenemos otro gran fracaso: el de una inteligencia artificial que ha servido de poco o nadaa la hora de luchar contra este problema global.

Desde el inicio de la pandemiase trataron de crear algoritmos de aprendizaje automático(machine learning) que ayudaran por ejemplo a diagnosticar a los enfermos, pero ni esos ni ningún otros han acabado sirviendo de mucho. La pandemia le ha ganado la batalla a la IA.

Mucho ruido, pocas nueces

Lo explicaban en MIT Technology Review, donderecordaban los esfuerzos múltiplesque se han llevado a cabo para tratar de que la inteligencia artificial fuera una herramienta útil contra la COVID-19.

No lo ha sido: el Turing Institute británico emitía en junio un informe (PDF) en el que revelaba que las herramientas creadas con IAhan tenido poco o ningún impactoen la lucha contra la pandemia.

Para estos investigadores la inteligencia artificial sigue teniendo el potencial para ayudar en estas situaciones, pero hay también peligros a la vista:se podrían producir diagnósticos erróneoso que subestimaran el riesgo para pacientes vulnerables.

Otros estudios como el aparecidoen el British Medical Journalu otro publicadoen Nature Machine Intelligencede un investigador de la Universidad de Cambridge llegaban a la misma conclusión:cientos de herramientas se publicaron, y ninguna de ellas estaba preparada para usos clínicos reales.

A ese problema se suma otro crucial: estos algoritmos necesitan ser alimentados con datos, y aunque durante la pandemia se ha recolectando una enorme cantidad de ellos,muchos no estaban correctamente etiquetados o provenían de fuentes desconocidas. Algunos expertos llaman a esas colecciones de datos poco confiables “conjuntos de datos de Frankenstein”, y en ellos aparecían problemas como duplicidad y redundancia que reducían la efectividad de los algoritmos.

Los sesgos de incorporación —introducidos cuando se etiquetan los datos— ha sido otro de los problemas: era mucho más adecuado etiquetar por ejemplo una exploración médicacon el resultado de una prueba PCR que con la opinión de un médico, pero como decían estos investigadores, el ajetreo de los hospitales ante la pandemia ha hecho difíci algo así.

También ha habido problemas de coordinación: muchos investigadores se apresuraron acrear sus propios modelos en lugar de trabajar en conjuntocon otros analistas y médicos.

Como decía uno de los expertos que estudió esos esfuerzos: “los modelos son tan similares -casi todos usan las mismas técnicas con pequeñas modificaciones, y con los mismos datos- quetodos cometen los mismos errores”.

La OMS está considerando crear un proyecto que permita compartir datos para que en el futuro se eviten o al menos se minimicen estos problemas, pero la propuesta es aún algo difusa. Lo cierto es queel fracaso de la inteligencia artificial ante la COVID-19 ha sido claro, y ahora solo queda esperar que todo esto ayude a que en el futuro no se repitan los mismos errores.

Vía |MIT Technology Review