Antes teníamos la ley de Moore, ahora tenemos la ‘ley de Huang’ que perfila el futuro de NVIDIA y ARM

Javier Pastor

Los límites físicosestán poniendo a prueba la célebre ley de Moore, pero desde hace unos años estamos viendo un fenómeno similar en el ámbito de la computación en el campo de la inteligencia artificial.

De hecho el avance de la capacidad de proceso en este escenarioha hecho que algunos hablen ya de la “Ley de Huang"en referencia al CEO de NVIDIA, Jensen Huang. La evolución de los chips de la compañía en este ámbito es incluso mayor que la queGordon Moore formuló de forma informalhace 55 años para los microprocesadores de propósito general.

¿Adiós, ley de Moore?

A la ley de Moore se le acaba la cuerda. Es cierto que los avances en el segmento de los microprocesadores siguen siendo notables, pero es cada vez más difícil poder respetar aquella ley que Gordon Moore en realidadformuló como una apreciación más que como una predicción fiablede lo que ocurría en el mundo de las CPUs.

Segúnla ley de Moore, cada dos años se duplica el número de transistores en un microprocesador. Dicha percepción acabó convirtiéndose en una ley no matemática o física, sino en esa singular predicción (e incluso reto tecnológico a lograr) quese ha ido cumpliendo en las últimas décadas.

Los procesos de producción y las litografías utilizadas en los últimos años han demostrado plantear un reto importante en este sentido, y eso ha hecho quesea poco probable que la ley de Moore vaya a durar otros 55 años.

Hola, ‘ley de Huang’

Frente a ella, no obstante,nos encontramos con la ‘Ley de Huang’,bautizada así por Christopher Mims, un editor en The Wall Street Journal que ha mostrado cómo en los últimos años la progresión de la capacidad de cálculo se ha incrementado de forma aún más notable que lo que dictaba la ley de Moore.

Los procesadores gráficos de NVIDIA han ido creciendo más y más en este segmento, y hace años que además de plantear mejoras en el rendimiento de nuestros juegos —algo que se ha vuelto a demostrar con las recientesRTX 3080—han ido integrando más y más Tensor Cores, los núcleos de proceso que permiten alcanzar capacidades de cálculo asombrosas en el ámbito del aprendizaje profundo (deep learning) y la inteligencia artificial.

Bill Daly, Chief Scientist en NVIDIA —que recientemente hasta diseñóun respirador de bajo costepara enfermos de COVID— explicaba cómo desde noviembre de 2012 y mayo de 2020 el rendimiento de estos chips en cálculos en una de las disciplinas de la inteligencia artificialse ha multiplicado por 317 veces.

Eso supone un crecimiento aún mayor en estos años de lo que marca la ley de Moore, y desde luego hace pensar en lo rápido que han avanzado diversos campos en los que se están aplicando estos sistemas,como por ejemplo el de la conducción autónoma.

Esos avances están permitiendo tambiénel auge de la llamada ‘Edge Computing’: mientras que antes esos cálculos complejos se realizaban en un servidor en la nube que luego nos enviaba los datos, los modernos procesadores con núcleos dedicados a estas tareas ya son capaces de procesar por sí mismos esos datos y dar la respuesta “en nuestro extremo(edge)” sin necesidad de que estemos conectados a la nube.

La compra de ARM por parte de NVIDIApodría fortalecer aún más ese concepto de la ‘ley de Huang’, y de hecho el CEO de NVIDIA ya dejó claro que entre los puntos claves de la hoja de ruta de esa operación estaría elimpulso del desarrollo de chips ARM en el campo de la IA.

Nuestros móviles ya cuentan con procesadores con cada vez más potencia en ese sentido. La ayuda de esos chips se nota por ejemplo en un post-procesado espectacular de las fotos que tomamos a través de la fotografía computacional, pero sus aplicaciones son cada vez más diversas y la intención de NVIDIA parece ser clara a la hora de ofrecer más y más potencia de cálculo en ese sentido en losfuturos chips diseñados por ARM, tanto si se aprovechan para smartphones como si se utilizan en sensores de todo tipo.

Vía |WSJ