La Inteligencia Artificial requiere de muchísimo poder de cómputo. Los problemas más complejos solamente se pueden tratar con hardware realmente poderoso.
Por ello, en una iniciativa de Microsoft y OpenAI, se está desarrollando una nueva supercomputadora de 285 mil núcleos, 400 Gbps de conectividad para cada servidor, GPU además de tener unas 10 mil unidades de GPUs (núcleos para procesamiento gráfico). Se trata de hacer la siguiente generación de modelos de IA muy grandes y en este caso la nueva máquina será hospedada en la nube de Microsoft, Azure.
El anuncio oficial en Build 2020
El gigante de las ventanas hace cada año una conferencia llamada «Build», dedicada a los desarrolladores, en donde la compañía muestra los avances en los diferentes frentes en los que trabajan.
Ahora, en esta edición (virtual) 2020 de Build, se anuncia la creación de una poderosa y masiva computadora para hacer Inteligencia Artificial más inteligente aún. Se está construyendo con la colaboración exclusiva de OpenAI y esta máquina será la primera en ser hospedada en la nube Azure, la cual es uno de los negocios más importantes de Microsoft hoy por hoy.
La máquina tendrá 285 mil núcleos, con 400 Gbps de comunicación para servidor GPU, además de contar con 10 mil GPUs para su procesamiento en paralelo, buscando eficientar las tareas de los programas inteligentes.
Si comparamos esta máquina con el «TOP500» de las supercomputadoras en el planeta, quedaría en el lugar 5, de acuerdo con lo que Microsoft ha dicho. El hecho de que esté hospedada en Azure implica tener los beneficios de una infraestructura moderna en la nube, además de poder usar los servicios que ofrece la tecnología de Microsoft.
«Lo emocionante de este modelo es las posibilidades que ofrece», comento Kevin Scott, de Microsoft , indicando que además se añaden los beneficios potenciales que van mucho más allá de los avances en un tipo de modelos de IA.
«Esto es sobre ser capaces de hacer cientos de cosas emocionantes en procesamiento natural del lenguaje, o bien en visión por computadora, y cuando uno empieza a ver las combinaciones posibles en estos dominios de la percepción, el resultado es que se tendrán nuevas aplicaciones que son incluso difíciles de imaginar en estos momentos», añadió.
Un nuevo modelo de multitareas en los modelos de la IA
Uno de los campos más usados hoy en día en la nueva IA es el aprendizaje de máquinas, en donde los expertos históricamente han construido de forma separada modelos pequeños de IA, los cuales usan como ejemplos etiquetados para aprender una sola tarea, por ejemplo, la de traducir de un idioma a otro, el reconocer objetos, leer un texto o identificar puntos claves en un correo, entre otras cosas.
Sin embargo, una nueva clase de modelos desarrollador por la comunidad de la IA han hallado que tales tareas se pueden desarrollar mejor usando un modelo masivo, uno que aprende de millones de páginas públicas disponibles que hay con textos, por ejemplo.
Hay que decir que la compañía ha desarrollado su propia iniciativa en IA, generando sus propios modelos grandes, a los que llama «Los modelos Turing de Microsoft», los cuales se están usando para mejorar las capacidades para entender los idiomas entre Bing, Dynamics y otros productos de la empresa. Al inicio de este año Microsoft ya había anunciado su modelo Turing para la generación del lenguaje natural.