Google Cloud Next '24 reúne una amplia gama de innovaciones de IA generativa

  • Actualidad

Google Cloud Next24

Abrir nuevas posibilidades para organizaciones de todos los tamaños en la era de la IA. Ese es el objetivo de las novedades presentadas por Google Cloud, que incluyen nuevos asistentes de IA conectados a la nube, infraestructura optimizada para IA y más de 130 modelos propios y de terceros en Vertex AI.

  Recomendados....

Las nuevas fronteras de la ciberseguridad. Foro IT Digital Security (23 abril) Registro
Diez aspectos para redefinir las estrategias de Experiencia de Cliente de las empresas en 2024 Informe
Privacidad y seguridad en la inteligencia artificial empresarial con Zoom AI Companion Leer

Hace apenas un año, el mundo empezaba a vislumbrar el potencial de la IA generativa. Hoy, avanzamos con rapidez hacia un futuro que, para Google, significa mejorar la vida de las personas y convertir a la IA en una herramienta útil para todos. Pues bien, aprovechando la celebración de Google Cloud Next '24, Google Cloud ha presentado innovaciones de producto dirigidas a abrir nuevas posibilidades para organizaciones de todos los tamaños en la era de la IA.

Un mundo de asistentes de IA conectados a la nube

Gracias a su catálogo de IA —infraestructura, Gemini, modelos y Vertex AI—, muchas empresas están desarrollando asistentes de IA cada vez más sofisticados, con el objetivo de mejorar la atención al cliente, potenciar la colaboración entre empleados y ayudar en la generación de contenidos, entre otras muchas aplicaciones.

Los nuevos agentes de atención al cliente, posibilitan una interacción multimodal entre cliente y empresa. Esta nueva interacción, más fluida, puede llevarse a cabo a través de todos los canales y en distintas modalidades, como texto y voz, entre otras. Por su parte, los asistentes para empleados ayudan a los empleados de una organización a ser más productivos y a trabajar mejor de forma colaborativa, mientras que los asistentes creativos pueden ser un fantástico equipo de diseño y producción, capaz de trabajar con imágenes y diapositivas, y de ayudar a explorar conceptos.

Escala con infraestructura optimizada para IA

El potencial de la IA generativa para impulsar la transformación depende de la infraestructura en la que se basa. Google Cloud está haciendo avances importantes para ayudar a los clientes en todas las capas en el ámbito tecnológico, entre ellos destacan:

--A3 mega: desarrollada con NVIDIA utilizando GPUs H100 Tensor Core, esta nueva instancia basada en GPU está disponible de forma general y duplica el ancho de banda por GPU de las instancias A3, para soportar las cargas de trabajo más exigentes. También anuncia Confidential A3, que permite a los clientes proteger mejor la confidencialidad e integridad de los datos sensibles y las cargas de trabajo de IA durante el entrenamiento y la inferencia.

--NVIDIA HGX B200 y NVIDIA GB200 NVL72: los últimos chips de la plataforma NVIDIA Blackwell llegarán a Google Cloud a principios de 2025 en dos variantes: HGX B200 y GB200. El B200 está diseñado para entrenar y dar servicio a modelos convencionales, mientras que el GB200 NVL72 permite la inferencia de modelos de lenguaje de gran tamaño en tiempo real y un rendimiento de entrenamiento masivo para modelos a escala de billones de parámetros.

--TPU v5p: ya está disponible TPU v5p, el acelerador de IA más potente, escalable y flexible para entrenamiento e inferencia, con 4 veces más potencia de cálculo por pod en comparación con la generación anterior. También anuncia la disponibilidad de la compatibilidad de Google Kubernetes Engine (GKE) con TPU v5p. En el último año, el uso de GPUs y TPUs en GKE ha crecido más de un 900%.

--Opciones de almacenamiento optimizadas para IA: está acelerando la velocidad de formación con nuevas funciones de almacenamiento en caché en Cloud Storage FUSE y Parallelstore, que mantienen los datos más cerca de la TPU o GPU del cliente. También está introduciendo Hyperdisk ML (en vista previa), un servicio de almacenamiento en bloque de nueva generación que acelera los tiempos de carga de modelos hasta 3,7 veces en comparación con las alternativas comunes.

--Nuevas opciones para Dynamic Workload Scheduler: el modo calendario ofrece la opción de garantizar la hora de inicio o de aplicar un inicio flexible, con el fin de optimizar la economía. De este modo, a los clientes les resulta más sencillo gestionar los recursos de manera eficaz, a la hora de distribuir tareas complejas de entrenamiento e inferencia.

En otro orden de cosas, está habilitando AI Anywhere en Google Distributed Cloud (GDC): esto permitirá a los usuarios seleccionar el entorno, la configuración y los controles que mejor se adapten a las necesidades específicas de cada organización. Así, por ejemplo, Orange utiliza la IA de GDC para mejorar el rendimiento de su red y la experiencia de sus clientes.

También se han anunciado nuevas capacidades para GDC, incluida la intención de adoptar GPU de NVIDIA en GDC, tanto para configuraciones conectadas como aisladas. GDC adoptará la misma tecnología GKE que ya utilizan en Google Cloud las principales empresas de IA; está certificando en GDC distintos modelos abiertos de IA, como Gemma, Llama y otros, para que funcionen en entornos conectados y aislados; está integrando en GDC la potencia de la búsqueda vectorial, para buscar y recuperar información en conjuntos de datos privados y sensibles con una latencia extremadamente baja; y cuando existen requisitos normativos muy estrictos, puede ofrecer configuraciones de GDC totalmente aisladas, con operaciones locales y capacidad de supervivencia total, con gestión a cargo de Google o del socio que elija el cliente.

Aunque no todas las cargas de trabajo son cargas de IA, no hay duda de que todas las cargas de trabajo que se ejecutan en la nube deben optimizarse. Y, además, cada aplicación tiene unas necesidades técnicas específicas. Por eso se han presentado nuevas opciones de computación que ayudan a los clientes a maximizar el rendimiento, facilitan la interoperabilidad entre aplicaciones y cumplen los objetivos de sostenibilidad.

Google Axion, su primera CPU de Arm diseñada para centros de datos, ofrece un rendimiento hasta un 50% superior y una eficiencia energética hasta un 60% mejor que las máquinas virtuales basadas en x86 de la generación actual. Otras novedades son las series N4 y C4, que se suman a al catálogo de máquinas virtuales de uso general; las nuevas máquinas de la familia C3; y la disponibilidad general de bancos de almacenamiento avanzado de hiperdisco, entre otras.

Asimismo, Google Cloud prevé ampliar a once nuevos países la residencia de datos, para datos en reposo almacenados en servicios de Vertex AI para IA generativa, incluida España, lo que proporciona a los clientes un mayor grado de control sobre dónde se almacenan sus datos y cómo se accede a ellos. Con ello, es más sencillo cumplir requisitos normativos y de seguridad en todo el mundo.

Crear agentes con Vertex AI

Google Cloud ofrece más de 130 modelos propios y de terceros en Vertex AI. Es más, está ampliando el acceso a diferentes modelos con el fin de dar a los clientes más opciones a la hora de seleccionar un modelo:

--Gemini 1.5 Pro: Gemini 1.5 Pro ofrece dos tamaños de ventanas contextuales: 128.000 tokens y 1 millón de tokens. Ahora se anuncia la compatibilidad con la entrada de audio, que ya se encuentra disponible en versión pública preliminar. Los clientes pueden procesar grandes volúmenes de información en un único flujo: hasta 1 hora de vídeo, 11 horas de audio, bases con más de 30.000 líneas de código o textos de más de 700.000 palabras.

--Claude 3: la nueva familia de modelos de última generación de Anthropic ya está disponible con carácter general para los clientes de Vertex AI.

--CodeGemma: Gemma es una familia de modelos avanzados, abiertos y ligeros, creada por Google DeepMind. Desde ahora, hay una versión refinada de Gemma, llamada CodeGemma diseñada para aplicaciones de código de programación, como generación de código o asistencia para la escritura de código. Ya está disponible en Vertex AI.

--Imagen 2: su tecnología más avanzada de conversión de texto en imagen cuenta con diversas funciones de generación de imágenes para ayudar a las empresas a crear imágenes que se ajusten a los requisitos específicos de su marca. Una nueva función de conversión de texto en imagen permite a los equipos creativos y de marketing generar imágenes animadas, como gifs, equipadas con filtros de seguridad y marcas de agua digitales. Además, están disponibles  funciones avanzadas de edición de fotos, como inpainting y outpainting, y mucho más.

--Marca de agua digital: se encuentra disponible con carácter general una marca de agua digital, creada mediante la herramienta SynthID de Google DeepMind, para las imágenes generadas por IA producidas con Imagen 2.0.

Los clientes obtienen mucho más de sus modelos cuando los aumentan y los basan en datos empresariales. Google Cloud amplía las capacidades de base de Vertex AI de dos maneras: búsqueda en Google, por la que los modelos de base en Google Search combinan la potencia de los últimos modelos de base de Google junto con el acceso a información actual y de alta calidad para mejorar significativamente la integridad y precisión de las respuestas; y datos, aterrizando en datos de aplicaciones empresariales, como Workday o Salesforce, y conectando fácilmente las bases de datos de Google, como AlloyDB y BigQuery. Una vez elegido el modelo adecuado, ajustado y preparado, Vertex también puede ayudar a desplegar, gestionar y supervisar los modelos.

Acelera el desarrollo

Gemini Code Assist la solución de escritura de código de programación asistida por IA orientada a la empresa también ofrece las siguientes novedades para desarrolladores:

--Gemini Code Assist con Gemini 1.5 Pro: La principal novedad de esta actualización es una ventana contextual de 1 millón de tokens, que revolucionará la escritura de código de programación incluso para los proyectos más grandes. Ahora, Gemini Code Assist ofrece sugerencias de código aún más precisas, más detalles y flujos de trabajo más ágiles.

--Asistente de Gemini en la nube: Asistencia de IA a lo largo de todo el ciclo de vida de una aplicación. Para facilitar el diseño de una aplicación, hacerla segura, explotarla, resolver problemas y optimizar el rendimiento y los costes.

Un estudio con Gemini Code Assist y desarrolladores internos de Google revela que las tareas comunes de desarrollo se completaron un 40% más deprisa y la escritura de código nuevo requirió un 55% menos de tiempo. De hecho, Gemini Code Assist permite que una base de código privada esté en cualquier lugar: en tus instalaciones, en GitHub, GitLab, Bitbucket o incluso en múltiples ubicaciones.

Aumenta la productividad con Google Workspace

Gemini para Workspace pone a disposición de las empresas un agente asistido por IA directamente integrado en Gmail, Documentos, Hojas de cálculo y otras aplicaciones. Se ha anunciado una nueva hornada de innovaciones y mejoras en Google Workspace con Gemini:

--Google Vids: Esta nueva aplicación de creación de vídeo para el trabajo basada en IA es un asistente para la redacción de guiones, la producción y la edición de vídeo, todo en uno. Vids estará junto a otras aplicaciones de Workspace como Docs, Sheets y Slides.

--Complemento de IA para reuniones y mensajería: Esta herramienta, ofrece la función “toma notas por mí”, resume chats y ofrece traducción en tiempo real en 69 idiomas.

--Nuevo complemento de IA para seguridad: Ahora los administradores de Workspace pueden clasificar y proteger automáticamente los archivos y datos sensibles utilizando modelos de IA respetuosos con la privacidad y controles de prevención de la pérdida de datos entrenados específicamente para una organización en particular.