Icono del sitio BI-Spain.com

Amazon WS presenta nuevos chips para sus máquinas preparados para la IA y nuevos modelos para Machine Learning

Tercer día del espectacular re:Invent (cómo nos hubiera gustado estar en directo!) que se está celebrando en Las Vegas.

Aquí va un resúmen de los temas que se trataron ayer y de las principales novedades.

Temas destacados:

Noticias de AWS

Innovaciones en hardware y chips

Disponibilidad general de las Instancias AWS Trainium2 (03.12.24) – AWS ha anunciado la disponibilidad general de las instancias Amazon EC2 alimentadas por AWS Trainium2, ha presentado los nuevos Trn2 UltraServers, permitiendo a los clientes entrenar y desplegar los últimos modelos de IA, así como futuros modelo extensos de lenguaje (LLM) y modelos fundacionales (FM) con niveles excepcionales de rendimiento y eficiencia de costos, y presentó la próxima generación de chips Trainium3.

Los aspectos más destacados incluyen:

Trn2 es la instancia Amazon EC2 de mayor rendimiento para aprendizaje profundo e IA generativa: Las instancias Trn2 ofrecen un rendimiento precio/calidad 30-40% mejor que la generación actual de instancias EC2 P5e y P5en basadas en GPU y cuentan con 16 chips Trainium2 para proporcionar 20.8 petaflops de cálculo máximo, ideal para entrenar y desplegar LLMs con miles de millones de parámetros.

Los Trn2 UltraServers satisfacen las crecientes necesidades de cálculo de IA de los modelos más grandes del mundo: Los Amazon EC2 Trn2 UltraServers son una oferta completamente nueva de EC2 que cuenta con 64 chips Trainium2 interconectados, utilizando la interconexión ultra rápida NeuronLink, para escalar hasta 83.2 petaflops de cálculo máximo, cuadruplicando el cálculo, la memoria y la red de una sola instancia.

Chips Trainium3: diseñados para las necesidades de alto rendimiento de la próxima frontera de cargas de trabajo de IA generativa: Trainium3 será el primer chip de AWS fabricado con un nodo de proceso de 3 nanómetros, estableciendo un nuevo estándar de rendimiento, eficiencia energética y densidad. Se espera que los UltraServers alimentados por Trainium3 sean 4 veces más potentes que los Trn2 UltraServers, permitiendo a los clientes iterar aún más rápido al construir modelos y ofrecer un rendimiento en tiempo real superior al desplegarlos. Se espera que las primeras instancias basadas en Trainium3 estén disponibles a finales de 2025.

Permitir a los clientes desbloquear el rendimiento de Trainium2 con el software AWS Neuron: AWS ha lanzado el SDK de Neuron, que ofrece herramientas para optimizar modelos para chips Trainium. El SDK se integra con marcos como JAX y PyTorch, admite más de 100,000 modelos en el hub de modelos Hugging Face e incluye la Interfaz de Kernel de Neuron (NKI) para acceso de metal desnudo.

Aprendizaje Automático (ML)/Inteligencia Artificial (IA)

Amazon Q

Base de datos y almacenamiento

Anuncios de Clientes y Partners

Startups

Salir de la versión móvil