El Foro Económico Mundial quiere unificar todas las iniciativas éticas de la Inteligencia Artificial en Global AI Action Alliance (GAIA)

Arantxa Herranz

Tras la explosión de las posibilidades que abre la Inteligencia Artificial empezaron a llegar las primerasdudas sobre el alcance de esta tecnologíay, sobre todo, de sus usos y empleos éticos. Elclásico dilemade a quién debería intentar salvar un coche autónomo en un accidente de tráfico abrió la puerta a muchas interpretaciones e intentos por sentar las bases para que la Inteligencia Artificial fuera ética.

El problema, sin embargo, es quehay tantas aproximaciones, planteamientos y esfuerzos que muchos de ellos pueden acabar perdiéndosepor el camino o que valgan para unos sistemas de Inteligencia Artificial, pero no para todos. Algo que el Foro Económico Mundial quiere resolver.

Para ello, se propone como punto de encuentro de todas las iniciativas, tanto públicas como privadas y de la sociedad civil, que están surgiendo parapromover un uso ético de la Inteligencia Artificial.

Para ello, ha lanzado Global AI Action Alliance (GAIA), una iniciativa con la que quiere que todos estos proyectos se materialicen. Porque, según este organismo, al mismo tiempo que se desarrollan las tecnologías de la IA, no solo aparecen dudas, sino nuevas guías para promover estos usos éticos lo que, a su vez,generan nuevos silos y barreras.

La interoperabilidad de las cuestiones éticas

Según este organismo, hayal menos 175 iniciativaspara que los sistemas de inteligencia artificial sean confiables, transparentes e inclusivos. Algunas son de empresas privadas, comola de Google. La propiaUnión Europea está intentando legislarlos aspectos éticos de la IA. Otras iniciativas son de la sociedad civil, comoOdiseIAen España. Todas ellas surgen después de que se hayan producido varias controversias, como los sistemas de reconocimiento facial, lasdeep fakeo, más recientemente, la creación debots con voces de personas fallecidas.

Todas estas aplicaciones tan controvertidas de estas tecnologías han generado recelos y desconfianza entre los usuarios. De hecho, según unestudio de la Universidad de Oxford y la Comisión Europea, el 84% de los estadounidenses y el 88% de los europeos creen que la IA debe ser “manejada con cuidado” sobre la base de su potencial para producir resultados sociales dañinos.

Aunque el WEF (World Economic Forum, por sus siglas en inglés) cree que es bueno que exista esa inquietud por resolver las cuestiones éticas en la Inteligencia Artificial, le pone una pega: se está creando una brecha en la implementación de esas bases éticas. Es decir, que “es más fácil definir cuáles son los estándares éticos que un sistema debería seguir que diseñar y desplegar un sistema que cumpla esos estándares”.

Facilitar y no entorpecer la aplicación de la ética

El Foro Económico Mundial quiere, por tanto,reunir todos estos esfuerzos para que no supongan nuevas barreras de conocimiento y aprendizaje.

El objetivo es fomentar una colaboración a nivel mundial y que aquellasprácticas y herramientas que han demostrado ser útiles puedan tener una rápida aplicaciónpor parte de todos los implicados, garantizando por tanto que estas bases éticas son interoperables y aplicables en cualquier tecnología reaccionada con la Inteligencia Artificial.

El organismo cree que hay que acelerar la adopción de los sistemas transparentes e inclusivos y en los que pueda confiar todo el mundo. Algo para lo que, vaticina, queda un camino largo. “No es una cuestión de derecho sino un factor crítico para el éxitode instituciones, gobiernos, empresas o de otro tipo que estén utilizando la inteligencia artificial”, asegura.

Por eso, este proyecto quiere generar los entornos de trabajo para que los desarrolladores puedantrabajar con estas guías éticas en tiempo realy, a su vez, generar más confianza a los usuarios.

De esta forma, el objetivo final esacelerar la adopción de una inteligencia artificial transparente, confiable e inclusivaa nivel mundial y en todos los sectores.

En estos momentos, empresas como Accenture, BBVA, Dell, Deloitte, EY, Facebook, HPE, Huawei, Microsoft, Netflix, Palantir, Salesforce o VMware ya forman parte de esta iniciativa. Todas ellas se han comprometido adiseñar de manera conjunta los frameworks y protocolos de gobernanza de datospara acelerar los beneficios y mitigar los riesgos de la IA. Estos frameworks serán también probados en proyectos piloto de bajo riesgo para validar su impacto.