BigLake è un motore di archiviazione che fornisce un'interfaccia unificata per l'analisi e i motori AI per eseguire query su dati multiformato, multi-cloud e multimodali in modo sicuro, regolato da governance e con prestazioni elevate. Crea una lakehouse AI a copia singola progettata per ridurre la gestione e la necessità di un'infrastruttura dati personalizzata.
Innovazione continua, inclusa la nuova ricerca BigQuery's Evolution toward a Multi-Cloud Lakehouse in presentazione all'evento 2024 SIGMOD.
Esegui il deployment di una soluzione consigliata da Google che unifica data lake e data warehouse per l'archiviazione, l'elaborazione e l'analisi di dati strutturati e non strutturati
Archivia un'unica copia di query e dati strutturati e non strutturati utilizzando dati e analisi e AI
Controllo dell'accesso granulare e governance multi-cloud sui dati distribuiti.
Esperienza completamente gestita con gestione automatica dei dati per la tua lakehouse in formato aperto
Vantaggi
Sblocca l'analisi sui dati distribuiti indipendentemente da dove e come vengono archiviati, scegliendo i migliori strumenti di analisi, open source o cloud-native su una singola copia dei dati.
Controllo granulare degli accessi su motori open source come Apache Spark, Presto e Trino e formati aperti come Parquet. Query ad alte prestazioni sui data lake basati su BigQuery.
Integrazione con Dataplex, per la gestione su larga scala, che include l'organizzazione di dati logica, la gestione centralizzata di criteri e metadati, la gestione della qualità e del ciclo di vita e la coerenza tra dati distribuiti.
Funzionalità principali
BigLake elimina la necessità di concedere l'accesso a livello di file agli utenti finali. Applica i criteri di sicurezza a livello di tabella, riga e colonna alle tabelle dell'archivio oggetti in modo simile alle tabelle BigQuery esistenti.
Mantieni una singola copia di dati strutturati e non strutturati e rendila accessibile in modo uniforme su Google Cloud e sui motori open source, tra cui BigQuery, Vertex AI, Dataflow, Spark, Presto, Trino e Hive utilizzando i connettori BigLake. Gestisci centralmente i criteri di sicurezza in un unico posto e applicali in modo coerente ai motori di query tramite l'interfaccia API integrata nei connettori.
Scopri tutte le tabelle di BigLake, incluse quelle definite su Amazon S3, data lake Azure di seconda generazione in Data Catalog. Configura un controllo dell'accesso granulare e applicalo ai cloud durante le query con BigQuery Omni.
Le tabelle di oggetti consentono l'uso di dati multimodali per carichi di lavoro di AI regolati da governance. Crea facilmente casi d'uso di AI utilizzando BigQuery SQL e le relative integrazioni con Vertex AI.
Supporta formati file e tabelle open, tra cui Parquet, Avro, ORC, CSV e JSON. L'API gestisce più motori di calcolo tramite Apache Arrow. Il formato tabella supporta in modo nativo Apache Iceberg, Delta e Hudi tramite manifest.
Novità
Documentazione
Scopri come eseguire query sui dati archiviati in una tabella BigLake di Cloud Storage.
Prezzi
I prezzi di BigLake si basano sull'esecuzione di query sulle tabelle BigLake, tra cui:
1. I prezzi di BigQuery si applicano alle query su tabelle BigLake definite su Google Cloud Storage.
2. I prezzi di BigQuery Omni si applicano alle query su tabelle BigLake definite su Amazon S3 e Azure Data Lake Gen 2.
3. Query da motori open source che utilizzano i connettori BigLake: i connettori BigLake utilizzano l'API BigQuery Storage e vengono applicati i prezzi corrispondenti fatturati in byte letti e in uscita.
4. Si applicano costi aggiuntivi per l'accelerazione delle query utilizzando la memorizzazione nella cache dei metadati, le tabelle degli oggetti e BigLake Metastore.
Ad es.:* il primo TB di dati elaborati ogni mese con BigQuery è gratuito.
Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.