Tercer día del espectacular re:Invent (cómo nos hubiera gustado estar en directo!) que se está…

Tercer día del espectacular re:Invent (cómo nos hubiera gustado estar en directo!) que se está celebrando en Las Vegas.

Aquí va un resúmen de los temas que se trataron ayer y de las principales novedades.

Temas destacados:

Noticias de AWS

Innovaciones en hardware y chips

Disponibilidad general de las Instancias AWS Trainium2 (03.12.24) – AWS ha anunciado la disponibilidad general de las instancias Amazon EC2 alimentadas por AWS Trainium2, ha presentado los nuevos Trn2 UltraServers, permitiendo a los clientes entrenar y desplegar los últimos modelos de IA, así como futuros modelo extensos de lenguaje (LLM) y modelos fundacionales (FM) con niveles excepcionales de rendimiento y eficiencia de costos, y presentó la próxima generación de chips Trainium3.

Los aspectos más destacados incluyen:

Trn2 es la instancia Amazon EC2 de mayor rendimiento para aprendizaje profundo e IA generativa: Las instancias Trn2 ofrecen un rendimiento precio/calidad 30-40% mejor que la generación actual de instancias EC2 P5e y P5en basadas en GPU y cuentan con 16 chips Trainium2 para proporcionar 20.8 petaflops de cálculo máximo, ideal para entrenar y desplegar LLMs con miles de millones de parámetros.

Los Trn2 UltraServers satisfacen las crecientes necesidades de cálculo de IA de los modelos más grandes del mundo: Los Amazon EC2 Trn2 UltraServers son una oferta completamente nueva de EC2 que cuenta con 64 chips Trainium2 interconectados, utilizando la interconexión ultra rápida NeuronLink, para escalar hasta 83.2 petaflops de cálculo máximo, cuadruplicando el cálculo, la memoria y la red de una sola instancia.

Chips Trainium3: diseñados para las necesidades de alto rendimiento de la próxima frontera de cargas de trabajo de IA generativa: Trainium3 será el primer chip de AWS fabricado con un nodo de proceso de 3 nanómetros, estableciendo un nuevo estándar de rendimiento, eficiencia energética y densidad. Se espera que los UltraServers alimentados por Trainium3 sean 4 veces más potentes que los Trn2 UltraServers, permitiendo a los clientes iterar aún más rápido al construir modelos y ofrecer un rendimiento en tiempo real superior al desplegarlos. Se espera que las primeras instancias basadas en Trainium3 estén disponibles a finales de 2025.

Permitir a los clientes desbloquear el rendimiento de Trainium2 con el software AWS Neuron: AWS ha lanzado el SDK de Neuron, que ofrece herramientas para optimizar modelos para chips Trainium. El SDK se integra con marcos como JAX y PyTorch, admite más de 100,000 modelos en el hub de modelos Hugging Face e incluye la Interfaz de Kernel de Neuron (NKI) para acceso de metal desnudo.

Aprendizaje Automático (ML)/Inteligencia Artificial (IA)

  • Presentación de Amazon Nova: Una Nueva Generación de Modelos fundacionales (03.12.24) – Los nuevos modelos base de última generación de Amazon ofrecen inteligencia fronteriza y rendimiento precio/calidad líder en la industria. Los nuevos modelos de Amazon Nova disponibles en Amazon Bedrock incluyen:
    • Amazon Nova Micro, un modelo solo de texto que ofrece las respuestas de menor latencia a muy bajo costo.
    • Amazon Nova Lite, un modelo multimodal de muy bajo costo que es extremadamente rápido para procesar entradas de imagen, video y texto.
    • Amazon Nova Pro, un modelo multimodal altamente capaz con la mejor combinación de precisión, velocidad y costo para una amplia gama de tareas.
    • Amazon Nova Premier, el más capaz de los modelos multimodales de Amazon para tareas de razonamiento complejo y para su uso como el mejor maestro para destilar modelos personalizados (disponible en el primer trimestre de 2025).
    • Amazon Nova Canvas, un modelo de generación de imágenes de última generación.
    • Amazon Nova Reel, un modelo de generación de video de última generación.
  • AWS refuerza Amazon Bedrock con una protección de IA pionera en el sector, capacidad de orquestación de agentes y opción de personalización avanzada (03.12.24) – AWS anunció nuevas capacidades para Amazon Bedrock, un servicio completamente administrado para construir y escalar aplicaciones de IA generativa con modelos base de alto rendimiento. Estas capacidades ayudan a los clientes a prevenir errores factuales debido a alucinaciones, orquestar múltiples agentes impulsados por IA para tareas complejas y crear modelos más pequeños y específicos para tareas que pueden tener un rendimiento similar al de un modelo grande a una fracción del costo y la latencia.
  • AWS Presenta la Próxima Generación de Amazon SageMaker, Ofreciendo una Plataforma Unificada para Datos, Análisis e IA (03.12.24) – AWS anunció la próxima generación de Amazon SageMaker, unificando las capacidades que los clientes necesitan para análisis SQL rápidos, procesamiento de big data a escala de petabytes, exploración e integración de datos, desarrollo y entrenamiento de modelos, y IA generativa en una plataforma integrada.

Amazon Q

Base de datos y almacenamiento

  • Amazon S3 Amplía Capacidades con Tablas Apache Iceberg Administradas para Análisis de Data Lake Más Rápidos y Generación Automática de Metadatos para Simplificar el Descubrimiento y Comprensión de Datos (03.12.24) – AWS anunció nuevas características de Amazon S3 que hacen de S3 el primer almacenamiento de objetos en la nube con soporte totalmente administrado para Apache Iceberg para análisis más rápidos y la forma más fácil de almacenar y administrar datos tabulares a cualquier escala.
    • Tablas Amazon S3: la forma más fácil y rápida de realizar análisis en tablas Apache Iceberg en S3, ofreciendo un rendimiento de consulta hasta 3 veces más rápido.
    • Metadatos de Amazon S3: la forma más fácil y rápida de descubrir y entender los datos en S3.
  • AWS Anuncia Nuevas Capacidades de Base de Datos Incluyendo Amazon Aurora DSQL, la Base de Datos SQL Distribuida Más Rápida (03.12.24) – AWS anunció nuevas capacidades para Amazon Aurora y Amazon DynamoDB para soportar las cargas de trabajo más exigentes de los clientes que necesitan operar en múltiples regiones con consistencia fuerte, baja latencia y la mayor disponibilidad, ya sea que quieran SQL o NoSQL.
    • Amazon Aurora DSQL es una nueva base de datos SQL distribuida sin servidor que permite a los clientes construir aplicaciones con la mayor disponibilidad, consistencia fuerte, compatibilidad con PostgreSQL y lecturas y escrituras 4 veces más rápidas en comparación con otras bases de datos SQL distribuidas populares.
    • Las tablas globales de Amazon DynamoDB ahora admiten consistencia fuerte en varias regiones, asegurando que las aplicaciones multi-región de los clientes siempre estén leyendo los últimos datos sin tener que cambiar ningún código de aplicación.

Anuncios de Clientes y Partners

Startups

Por Editorial

Deja una respuesta