Inteligencia artificial para diseñar inteligencia artificial: la redundante y curiosa vía de investigación de Google
Anna Martí
Cuando hablamos de procesadores, de nanómetros y demás normalmente mencionamos la intención o el logro de haber conseguido mayor eficiencia y al mismo tiempo que el chip en cuestión necesite menos energía para funcionar. Ésta es una de las múltiples líneas de investigación de Google, y paramejorar sus chips de inteligencia artificialestá usando…inteligencia artificial(AI).
Hace algo más de un mes veíamosun robot con AIcapaz de aprender a andar por sí solo, una de tantas aplicaciones que los de Mountain View han puesto en práctica con sus tecnologías y algoritmos. Y en esta ocasión lo que intentan esmejorar el diseño de un chip dedicado a AI con ésta misma.
Recompensas y castigos: el condicionamiento más tradicional para los chips más modernos
La AI para Google esun componente básicoen sus productos. De hecho, sus móviles empezaron a despuntar en fotografía no por número de cámaras (todo lo contrario), si no portirar de aprendizaje automático y de AIen el procesamiento y realización de las fotografías.
En este caso, como cuentan enMIT Technology Review, han creado un nuevo algoritmo que ha aprendido a optimizar la distribución espacial de componentes en un chip para hacerlo más eficiente. De este modo, lo que pretenden esoptimizar esta distribuciónutilizando un algoritmo de AI para incrementar la eficiencia y reducir el consumo del chip.
La distribución espacial de componentes (lo que se conoce comochip floor planning) esalgo muy complejo que se ha diseñado manualmente durante años, buscando minimizar las distancias entre componentes y la cantidad de cable. Se trata de pensar en tres dimensiones y de poner en orden cientos e incluso miles de componentes, en distintas capas y en espacios muy, muy reducidos (recordemos que hablamos de una escala de nanómetros).
Tras este proceso se recurre a software de simulación de diseño electrónico para verificar su rendimiento, lo cual según explican puede costarunas 30 horas por cada diseñode una de las capas. Y éste es uno de los puntos que buscan mejorar con el uso de algoritmos demachine learning, que ya en los últimos años se han utilizado para poder agilizar este proceso de diseño pero con ciertas limitaciones, sobre todo a la hora de optimizar rendimiento, superficie y consumo.
De este modo, el nuevo enfoque que están planteando las investigadoras de Google Anna Goldie y Azalia Mirhoseini es el de que susalgoritmos de aprendizaje por refuerzousen elfeedbackpositivo y negativo para aprender las tareas más complicadas. Básicamente es algo así como aplicar el condicionamiento operante de Skinner (a quien nos referimos ya al hablar delo adictos que somos a las recompensasa algoritmos en vez de a mascotas, de manera que las investigadoras diseñaron una “función de recompensa” que “castiga” o “premia” al algoritmo según la eficiencia de su diseño.
Es decir, el algoritmo va creando diseños (decenas, centenares o miles de ellos) en fracciones de segundo y a posteriori se analizan con esta función de recompensa. Tras haber estado probando esto un tiempo, según explican las investigadoras, han visto que bastantes de los diseños creadostenían un desempeño mejor que los creados manualmentepor ingenieros (humanos), los cuales a su vez pudieron aprender algunos trucos del proceso automático.
Normalmente un chip tarda en crearse entre dos y cinco años (según explican en MIT Technology Review), en parte por lo duradero de este proceso de diseño. La esperanza es que este algoritmo de aprendizaje por refuerzo permita diseñar más rápidamente y que al final, acelerando el proceso de creación de chips de AIel avance de la misma también se agilice.