Integración de Google Gemini en Snowflake Cortex AI: soporte oficial y multicloud
La Integración de Google Gemini en Snowflake Cortex AI ya es oficial: Snowflake incorporó modelos de Google Gemini a su capa Cortex AI para que las empresas puedan aplicar LLMs sobre datos operativos y contenido no estructurado directamente dentro de su plataforma, con el objetivo de acelerar casos de uso de analítica y automatización sin mover datasets fuera del perímetro de gobernanza del data platform.
Según Snowflake, el soporte está diseñado para funcionar en entornos desplegados sobre AWS, Microsoft Azure o Google Cloud, aprovechando inferencia cross-region para ofrecer acceso a Gemini desde cualquiera de las nubes soportadas. La compañía enmarca el movimiento en su estrategia “model-agnostic”, centrada en permitir elección de modelos sin re-arquitecturas de datos ni cambios profundos de workflows.
Qué habilita la Integración de Google Gemini en Snowflake Cortex AI
Snowflake posiciona Cortex AI como una capa que permite aplicar modelos fundacionales a grandes volúmenes de información empresarial almacenada en la plataforma, incluyendo datos de ERP y finanzas, CRM (tickets y transacciones), telemetría e IoT, trazas de API, actividad web, y también formatos multimodales y no estructurados como PDFs, documentos, imágenes, vídeo y audio. Con la Integración de Google Gemini en Snowflake Cortex AI, el catálogo de modelos disponibles suma una opción más para extraer insights, clasificar, resumir y analizar información en el mismo entorno donde viven los datos.
Snowflake señaló que Cortex AI ya ofrecía soporte para modelos de proveedores como OpenAI, Anthropic, DeepSeek, Meta y Mistral, y que los usuarios pueden consumirlos mediante SQL o APIs. En ese contexto, Gemini se integra como un modelo adicional para organizaciones que quieran operar con el stack de Snowflake manteniendo la flexibilidad de elección del LLM.
Disponibilidad: modelos en public preview
La compañía indicó que, desde el martes, los clientes pueden empezar a usar una public preview de Gemini 3 Pro y Gemini 2.5 Flash a través de Cortex AI Functions. Además, Snowflake afirmó que el soporte llegará “próximamente” a Snowflake Intelligence y a Snowflake Cortex Agents, orientado a la construcción de agentes que consumen datos internos de la organización.
Multicloud e inferencia cross-region: el matiz clave
Uno de los puntos diferenciales que Snowflake subraya en esta actualización es que la Integración de Google Gemini en Snowflake Cortex AI no quedaría limitada a entornos ejecutándose sobre Google Cloud. La compañía afirma que los clientes podrán utilizar modelos Gemini “de forma nativa” dentro de Snowflake y acceder a ellos en cualquiera de las nubes soportadas mediante inferencia cross-region, independientemente de si su cuenta de Snowflake corre sobre AWS, Azure o Google Cloud.
Para empresas con arquitecturas híbridas o estrategias multicloud, este enfoque busca reducir fricción operativa: en lugar de mover datos hacia el proveedor del modelo, Snowflake pretende que el consumo del LLM se acople al lugar donde ya está el dato y a los mecanismos de gobierno y cumplimiento ya establecidos en el data platform.
Precio y modelo de consumo
Snowflake no detalló precios específicos para el uso de Gemini dentro de Cortex AI, aunque comunicó que el cobro estaría alineado con su modelo de consumo habitual: pagar por uso efectivo. El argumento de la compañía es que este esquema reduce el riesgo financiero al pasar de experimentación a producción y evita costes hundidos asociados a compromisos previos.
Por qué importa para el mercado de Data + AI
El anuncio refuerza la competencia entre plataformas de datos por convertirse en el punto de control de la AI empresarial: gobernanza, trazabilidad, seguridad y acceso unificado a múltiples LLMs desde el mismo plano de datos. En la práctica, la Integración de Google Gemini en Snowflake Cortex AI amplía el abanico de modelos para equipos de datos e ingeniería que quieren estandarizar el consumo de AI en SQL/APIs, sin imponer un único proveedor y sin rediseñar pipelines cada vez que cambia el “best model”.
Fuentes y enlaces oficiales
Con esta actualización, la Integración de Google Gemini en Snowflake Cortex AI entra en fase de adopción temprana vía public preview, anticipando una expansión hacia productos de agentes y experiencias de inteligencia dentro del propio ecosistema de Snowflake, mientras la industria redobla la apuesta por LLMs gobernados y operables a escala empresarial.



