Integración de Google Gemini en Snowflake Cortex AI: soporte oficial y multicloud

Integración de Google Gemini en Snowflake Cortex AI para inferencia multicloud y análisis de datos empresariales

Integración de Google Gemini en Snowflake Cortex AI: soporte oficial y multicloud

Compartir:

Integración de Google Gemini en Snowflake Cortex AI: soporte oficial y multicloud

La Integración de Google Gemini en Snowflake Cortex AI ya es oficial: Snowflake incorporó modelos de Google Gemini a su capa Cortex AI para que las empresas puedan aplicar LLMs sobre datos operativos y contenido no estructurado directamente dentro de su plataforma, con el objetivo de acelerar casos de uso de analítica y automatización sin mover datasets fuera del perímetro de gobernanza del data platform.

Según Snowflake, el soporte está diseñado para funcionar en entornos desplegados sobre AWS, Microsoft Azure o Google Cloud, aprovechando inferencia cross-region para ofrecer acceso a Gemini desde cualquiera de las nubes soportadas. La compañía enmarca el movimiento en su estrategia “model-agnostic”, centrada en permitir elección de modelos sin re-arquitecturas de datos ni cambios profundos de workflows.

Qué habilita la Integración de Google Gemini en Snowflake Cortex AI

Snowflake posiciona Cortex AI como una capa que permite aplicar modelos fundacionales a grandes volúmenes de información empresarial almacenada en la plataforma, incluyendo datos de ERP y finanzas, CRM (tickets y transacciones), telemetría e IoT, trazas de API, actividad web, y también formatos multimodales y no estructurados como PDFs, documentos, imágenes, vídeo y audio. Con la Integración de Google Gemini en Snowflake Cortex AI, el catálogo de modelos disponibles suma una opción más para extraer insights, clasificar, resumir y analizar información en el mismo entorno donde viven los datos.

Snowflake señaló que Cortex AI ya ofrecía soporte para modelos de proveedores como OpenAI, Anthropic, DeepSeek, Meta y Mistral, y que los usuarios pueden consumirlos mediante SQL o APIs. En ese contexto, Gemini se integra como un modelo adicional para organizaciones que quieran operar con el stack de Snowflake manteniendo la flexibilidad de elección del LLM.

Disponibilidad: modelos en public preview

La compañía indicó que, desde el martes, los clientes pueden empezar a usar una public preview de Gemini 3 Pro y Gemini 2.5 Flash a través de Cortex AI Functions. Además, Snowflake afirmó que el soporte llegará “próximamente” a Snowflake Intelligence y a Snowflake Cortex Agents, orientado a la construcción de agentes que consumen datos internos de la organización.

Multicloud e inferencia cross-region: el matiz clave

Uno de los puntos diferenciales que Snowflake subraya en esta actualización es que la Integración de Google Gemini en Snowflake Cortex AI no quedaría limitada a entornos ejecutándose sobre Google Cloud. La compañía afirma que los clientes podrán utilizar modelos Gemini “de forma nativa” dentro de Snowflake y acceder a ellos en cualquiera de las nubes soportadas mediante inferencia cross-region, independientemente de si su cuenta de Snowflake corre sobre AWS, Azure o Google Cloud.

Para empresas con arquitecturas híbridas o estrategias multicloud, este enfoque busca reducir fricción operativa: en lugar de mover datos hacia el proveedor del modelo, Snowflake pretende que el consumo del LLM se acople al lugar donde ya está el dato y a los mecanismos de gobierno y cumplimiento ya establecidos en el data platform.

Precio y modelo de consumo

Snowflake no detalló precios específicos para el uso de Gemini dentro de Cortex AI, aunque comunicó que el cobro estaría alineado con su modelo de consumo habitual: pagar por uso efectivo. El argumento de la compañía es que este esquema reduce el riesgo financiero al pasar de experimentación a producción y evita costes hundidos asociados a compromisos previos.

Por qué importa para el mercado de Data + AI

El anuncio refuerza la competencia entre plataformas de datos por convertirse en el punto de control de la AI empresarial: gobernanza, trazabilidad, seguridad y acceso unificado a múltiples LLMs desde el mismo plano de datos. En la práctica, la Integración de Google Gemini en Snowflake Cortex AI amplía el abanico de modelos para equipos de datos e ingeniería que quieren estandarizar el consumo de AI en SQL/APIs, sin imponer un único proveedor y sin rediseñar pipelines cada vez que cambia el “best model”.

Fuentes y enlaces oficiales

Con esta actualización, la Integración de Google Gemini en Snowflake Cortex AI entra en fase de adopción temprana vía public preview, anticipando una expansión hacia productos de agentes y experiencias de inteligencia dentro del propio ecosistema de Snowflake, mientras la industria redobla la apuesta por LLMs gobernados y operables a escala empresarial.

Compartir:

También podría interesarte

Déjanos tu comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio