Imagen de Gerd Altmann en Pixabay

Microsoft se pone las pilas.

Microsoft ha invertido 1 billón de dólares en el desarrollo de uno de los cinco superordenadores más potentes del mundo. Se han requerido 285.000 núcleos de CPU y 10.000 GPU con cada GPU interconectada con 400 gigabits por segundo de conectividad de red.

Este proyecto anunciado por Microsoft en la Build dev-con ha sido desarrollado junto con OpenAI específicamente para dotar a Azure de una nueva infraestructura para el entrenamiento de modelos de IA.

OpenAI es una organización sin ánimo de lucro fundada por Elon Musk y Sam Altman. Tiene como objetivo promover y desarrollar la inteligencia artificial en beneficio de la humanidad y colaborar con instituciones e investigadores para que sus patentes esté, a disposición de todo el mundo.

Este superordenador acelerará el desarrollo de nuevos modelos de machine learning e inteligencia artificial y está ya disponible para poder ser utilizada desde la nube de Azure de Microsoft.

Microsoft ya lanzó al público Microsoft Turing, el modelo de generación de lenguaje natural con Inteligencia Artificial más grande del mundo enfocado a la creación de grandes modelos con diversas herramientas especializadas en optimizar y capacitar machine learning.

Por otro lado tenemos DeepSeed, una biblioteca de aprendizaje profundo opensource diseñada para optimizar los recursos necesarios para la formación de modelos a gran escala. Consigue reducir la potencia de procesamiento necesaria para desarrollar una misma tarea con lo que es posible entrenar modelos 15 veces más grandes hasta 10 veces más rápido.

También está Build, el nuevo soporte de capacitación llamado ONNX Runtime (otra biblioteca opensource) para la creación de modelos basados en IA, mucho más eficientes y portables, tanto en hardware como en distintos sistemas operativos.

Y finalmente la estrella, el Azure Quantum. La próxima generación basada en la Qubits que ya se encuentra en fase de pruebas y será muchísimo más potente que estos superordenadores clásicos basados en bits.

El tamdem Microsoft y OpenAI ha desarrollado, con la potencia del nuevo ordenador, una inteligencia artificial que autocompleta código Python a partir de instrucciones en lenguaje natural, lo que podría ser el inicio de una revolución a la hora de escribir código de software.

Os dejo aquí un vídeo con un ejemplo de creación automática de código. Podeis ver como el programador inicia la escritura de un método en código Python y añade un comentario explicando en lenguaje natural lo que debe hacer el código que falta y la inteligencia artificial lo completa.

Todo esto parte del ya comentado GPT-2 utilizado para crear ‘fake news’ y reconvertido ahora en programador virtual.

GPT-2 es una inteligencia artificial capaz, por ejemplo, de «saber» cuál ha de ser la siguiente palabra de un texto en función de todas las palabras anteriores. Esto es posible recurriendo al procesamiento del lenguaje natural capaz de comprender la semántica de las palabras y las relaciones que se establecen entre las mismas dentro de un texto.

Además de generar texto, esta tecnología puede también resumir, traducir y manejar diferentes idiomas. Depende con qué datos alimentemos al modelo a la hora de entrenarlo. Generará noticias si se entrena con artículos periodísticos en inglés o español y generará software si le entrenamos con código escrito en Python como es el caso.

El modelo se a entrenado con código open source de repositorios Github de acceso libre. Básicamente han enseñado a una IA a programar haciendo que lea el código de miles de programas.

Ver tambien

Fotónica de silicio, solución para la computación no cuántica.

Los actuales sistemas que dan vida a ordenadores, teléfonos, etc. usan como base el chip …