Quote e limiti

Questo documento elenca le quotas e i quotas che si applicano in BigQuery.

Una quota limita la quantità di risorse Google Cloud condivise È possibile usare un progetto Google Cloud, inclusi hardware, software e rete componenti. Di conseguenza, le quote fanno parte di un sistema che seguenti:

  • Monitora l'utilizzo o il consumo dei prodotti Google Cloud e i servizi di machine learning.
  • Limita il tuo consumo di queste risorse, per motivi che includono: garantendo l'equità e riducendo i picchi di utilizzo.
  • Mantiene configurazioni che applicano automaticamente le limitazioni prescritte.
  • Consente di richiedere o modificare la quota.

Nella maggior parte dei casi, quando viene superata una quota, il sistema blocca immediatamente alla risorsa Google pertinente e all'attività che vuoi non riesce a eseguire l'esecuzione. Nella maggior parte dei casi, le quote vengono applicate a ogni progetto Google Cloud e vengono condivisi tra tutte le applicazioni e gli indirizzi IP che utilizzano progetto Google Cloud.

Sono presenti anche dei limiti alle risorse BigQuery. Questi non sono correlati al sistema delle quote. I limiti non possono essere modificati se non diversamente specificato.

Per impostazione predefinita, BigQuery le quote e i limiti si applicano in base al singolo progetto. Le quote e i limiti che si applicano su base diversa sono indicati come come ad esempio: ad esempio il numero massimo di colonne per tabella o il numero massimo di richieste API simultanee per utente. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente e del servizio Cronologia di utilizzo e altri fattori; sono soggetti a modifica senza preavviso.

Rifornimento quota

Le quote giornaliere vengono ripristinate a intervalli regolari durante il giorno, riflettendo il loro intento di guidare i comportamenti di limitazione della frequenza. Viene inoltre eseguito un aggiornamento intermittente per evitare lunghe interruzioni quando la quota si esaurisce. Altre quote vengono in genere rese disponibili entro pochi minuti, anziché essere ripristinate globalmente una volta al giorno.

Richiedi un aumento della quota

Per aumentare o diminuire la maggior parte delle quote, utilizza la console Google Cloud. Per maggiori informazioni, consulta Richiedere una quota superiore.

Per istruzioni dettagliate sulla procedura per richiedere un aumento della quota Nella console Google Cloud, fai clic su Procedura guidata:

Procedura guidata

Limite di utilizzo della quota

Scopri come limitare l'utilizzo di una particolare risorsa specificando un inferiore rispetto a quella predefinita, consulta Limitazione dell'utilizzo.

Autorizzazioni obbligatorie

Per visualizzare e aggiornare le quote di BigQuery nel nella console Google Cloud, devi disporre delle stesse autorizzazioni di qualsiasi account Google Cloud quota. Per ulteriori informazioni, vedi Autorizzazioni per le quote di Google Cloud.

Risoluzione dei problemi

Per informazioni sulla risoluzione degli errori relativi a quote e limiti, consulta Risoluzione dei problemi relativi alle quote di BigQuery.

Job

Quote e limiti si applicano ai job che BigQuery esegue per tuo conto sia che vengano eseguite utilizzando la console Google Cloud, lo strumento a riga di comando bq in modo programmatico usando l'API REST o le librerie client.

Job di query

Le seguenti quote si applicano ai job di query creati automaticamente che eseguono query interattive, query pianificate e job inviati utilizzando jobs.query e tipo di query jobs.insert Metodi dell'API:

Quota Predefinito Note
Utilizzo delle query al giorno Illimitato Non c'è limite al numero di byte che possono essere elaborati query in un progetto.
Visualizza la quota nella console Google Cloud
Utilizzo delle query al giorno per utente Illimitato Non esiste alcun limite al numero di byte che le query di un utente possono processo ogni giorno.
Visualizza la quota nella console Google Cloud
Byte tra regioni delle query federate Cloud SQL al giorno 1 TB Se Località di elaborazione delle query BigQuery e Le località dell'istanza Cloud SQL sono diverse, allora la query è tra regioni query. Il progetto può eseguire fino a 1 TB di query tra regioni al giorno. Consulta Cloud SQL query federate.
Visualizza la quota nella console Google Cloud
Byte trasferiti tra cloud al giorno 1 TB Puoi trasferire fino a 1 TB di dati al giorno da un bucket Amazon S3 oppure da Azure Blob Storage. Per ulteriori informazioni, vedi Cross-cloud da Amazon S3 e Azure.
Visualizza la quota nella console Google Cloud

I seguenti limiti si applicano ai job di query creati automaticamente che eseguono query interattive, query pianificate e job inviati utilizzando jobs.query e tipo di query jobs.insert Metodi dell'API:

Limite Predefinito Note
Numero massimo di query interattive in coda 1000 query Il tuo progetto può mettere in coda fino a 1000 query interattive. Le query interattive aggiuntive che superano questo limite restituiscono un di quota.
Numero massimo di query batch in coda 20.000 query Il tuo progetto può mettere in coda fino a 20.000 query batch. Batch aggiuntivo le query che superano questo limite restituiscono un errore di quota.
Numero massimo di query interattive simultanee su Origini dati esterne di Bigtable 16 query Il progetto può eseguire fino a sedici query simultanee su un Esterno Bigtable origine dati.
Numero massimo di query in parallelo che contengono query funzioni 10 query Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto.
Numero massimo di query multi-istruzione simultanee 1000 query con più dichiarazioni Il progetto può eseguire fino a 1000 partecipanti in contemporanea query con più dichiarazioni. Per altre quote e limiti relativi alle query con più istruzioni, vedi Query con più istruzioni.
Numero massimo di query SQL precedente simultanee che contengono funzioni definite dall'utente 6 query Il progetto può eseguire fino a sei query SQL legacy simultanee con query SQL legacy (UDF). Questo limite include interattivi e query batch. Anche le query interattive che contengono funzioni definite dall'utente vengono conteggiate per lo limite per le query interattive. Questo limite non si applica a GoogleSQL query.
Limite giornaliero per le dimensioni delle query Illimitato Per impostazione predefinita, non esiste un limite giornaliero per le dimensioni delle query. Tuttavia, puoi impostare dei limiti per la quantità di dati su cui gli utenti possono eseguire query creazione in corso quote personalizzate per controllare le query di utilizzo giornaliero o utilizzo delle query al giorno per utente.
Limite di aggiornamento giornaliero della tabella di destinazione Consulta la sezione Numero massimo di tabelle operazioni al giorno. Gli aggiornamenti alle tabelle di destinazione in un job di query vengono conteggiati ai fini del limite nel numero massimo di tabelle operazioni al giorno per le tabelle di destinazione. Gli aggiornamenti della tabella di destinazione includono le operazioni di aggiunta e sovrascrittura eseguite dalle query eseguite utilizzando la console Google Cloud, lo strumento a riga di comando bq o chiamando il metodo jobs.query e tipo di query jobs.insert metodi dell'API.
Limite di tempo di esecuzione per query/query multi-istruzione 6 ore

Una query o una query a più istruzioni può essere eseguita per un massimo di 6 ore e non riesce. Tuttavia, a volte vengono eseguiti nuovi tentativi di esecuzione delle query. È possibile provare una query fino a tre volte e ogni tentativo può durare fino a sei ore. Come come risultato, è possibile che una query abbia un tempo di esecuzione totale maggiore di 6 ore.

Il timeout dei job di CREATE MODEL è impostato in modo predefinito su 24 ore, ad eccezione delle serie temporali, di AutoML e dei job di ottimizzazione degli iperparametri che scadono a 72 ore.

Numero massimo di risorse a cui viene fatto riferimento per query 1000 risorse Una query può fare riferimento a un massimo di 1000 tables, univoci di visualizzazioni, uniche funzioni definite dall'utente (UDF) e univoci tabella funzioni dopo l'espansione completa. Questo limite include:
  • Tabelle, visualizzazioni, funzioni definite dall'utente e funzioni tabella direttamente a cui fa riferimento la query.
  • Tabelle, visualizzazioni, funzioni definite dall'utente e funzioni tabella a cui fanno riferimento altri viste/UDF/funzioni di tabella a cui viene fatto riferimento nella query.
Lunghezza massima in caratteri della query SQL 1024.000 caratteri Una query SQL può contenere fino a 1024.000 caratteri. Questo limite include commenti e spazi vuoti. Se la query è più lunga, riceverai il seguente errore: The query is too large. Per rimanere entro questo limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con parametri di ricerca e una query lunga in più query nella sessione.
Lunghezza massima delle query SQL precedente non risolte 256 kB Una query SQL precedente non risolta può avere una lunghezza massima di 256 kB. Se la query è più lunga, viene visualizzato il seguente errore: The query is too large. Per rimanere entro questo limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con parametri di ricerca.
Lunghezza massima delle query GoogleSQL non risolte 1 MB Una query GoogleSQL non risolta può avere una lunghezza massima di 1 MB. Se la query è più lunga, viene visualizzato il seguente errore: The query is too large. Per rimanere entro questo limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con una query parametri.
Lunghezza massima delle query legacy e GoogleSQL risolte 12 MB Il limite di dimensioni della query risolta include tutte le viste e le tabelle con caratteri jolly a cui fa riferimento la query.
Numero massimo di parametri di ricerca GoogleSQL 10.000 parametri Una query GoogleSQL può avere fino a 10.000 parametri.
Dimensione massima della richiesta 10 MB Le dimensioni della richiesta possono essere fino a 10 MB, incluse proprietà aggiuntive come parametri di ricerca.
Dimensione massima della risposta 10 GB compressi Le dimensioni variano in base alla compressione i rapporti per i dati. La dimensione effettiva della risposta potrebbe essere significativamente maggiore che superi i 10 GB. La dimensione massima della risposta è illimitata quando scrittura di query di grandi dimensioni in una tabella di destinazione.
Dimensione massima della riga 100 MB La dimensione massima della riga è approssimato, perché il limite si basa sulla rappresentazione interna dei dati di riga. La dimensione massima della riga viene applicata durante alcune fasi dell'esecuzione del job di query.
Numero massimo di colonne in una tabella, un risultato di una query o una vista definizione 10.000 colonne Una tabella, un risultato di una query o una vista la definizione può avere fino a 10.000 colonne.
Numero massimo di slot simultanei per i prezzi on demand 2000 slot per progetto

20.000 slot per organizzazione
Con i prezzi on demand, il tuo progetto può avere fino a 2000 slot simultanei. È inoltre presente un limite di 20.000 slot simultanei a livello di organizzazione. BigQuery permette di allocare gli slot in modo equo tra i progetti all'interno di un'organizzazione se la domanda totale è superiore a 20.000 slot. Gli slot di BigQuery vengono condivisi fra tutte le query in un singolo progetto. BigQuery potrebbe consentire il bursting oltre tale limite per accelerare le query. Per verificare quanti slot stai utilizzando, consulta Monitorare BigQuery utilizzando Cloud Monitoring.
Utilizzo massimo di CPU per dati analizzati per i prezzi on demand 256 secondi CPU per MiB scansionato Con i prezzi on demand, la query può utilizzare fino a circa 256 secondi di CPU per MiB di dati scansionati. Se la query consuma troppo CPU per la quantità di dati durante l'elaborazione, la query ha esito negativo con billingTierLimitExceeded errore. Per ulteriori informazioni, vedi billingTierLimitExceeded.
Mutazioni della tabella delle transazioni multi-istruzione 100 tabelle Un transazione può mutare i dati in al massimo 100 tabelle.
Modifiche alle partizioni delle transazioni multi-istruzione 100.000 modifiche alle partizioni Un può eseguire al massimo 100.000 modifiche alle partizioni.
Dimensione massima dei risultati delle query in BigQuery Omni 20 GiB non compressi La dimensione massima dei risultati è di 20 GiB di byte logici durante l'esecuzione di query Azure o AWS e i dati di Google Cloud. Se il risultato della query è superiore a 20 GiB, valuta la possibilità di esportare i risultati per Amazon S3 o Archiviazione BLOB. Per ulteriori informazioni, vedi BigQuery Omni Limitazioni.
Dimensioni totali dei risultati delle query di BigQuery Omni al giorno 1 TB Le dimensioni totali dei risultati delle query per un progetto sono di 1 TB al giorno. Per ulteriori informazioni, vedi BigQuery Omni limitazioni.
Dimensione massima delle righe di BigQuery Omni 10 MiB La dimensione massima della riga è 10 MiB durante l'esecuzione di query Azure o AWS e i dati di Google Cloud. Per ulteriori informazioni, vedi BigQuery Omni Limitazioni.

Sebbene le query pianificate utilizzino funzionalità BigQuery Data Transfer Service, le query pianificate non sono trasferimenti e non sono soggette limiti dei job di caricamento.

Job di esportazione

I seguenti limiti si applicano ai job che esportare i dati da BigQuery utilizzando lo strumento a riga di comando bq, la console Google Cloud oppure il tipo di esportazione jobs.insert API.

Limite Predefinito Note
Numero massimo di byte esportati al giorno 50 TB Puoi esportare fino a 50 TB(tebibyte) di dati al giorno da un progetto per utilizzando il pool di slot condiviso. Puoi configurare una configurazione di Cloud Monitoring criterio di avviso che invia una notifica relativa al numero di byte esportati. Per esportare più di 50 TB(tebibyte) di dati al giorno, esegui una delle seguenti:
Numero massimo di job di esportazione al giorno 100.000 esportazioni In un progetto puoi eseguire fino a 100.000 esportazioni al giorno. Per eseguire più di 100.000 esportazioni al giorno, esegui una delle seguenti operazioni:
Dimensioni massime della tabella esportate in un singolo file 1 GB Puoi esportare fino a 1 GB di dati di una tabella in un singolo file. Per esportare altro più di 1 GB di dati, utilizza un carattere jolly per esportare i dati in più file. Quando esporti in più file, la dimensione dei file può variare. In alcuni casi, la dimensione dei file di output è superiore a 1 GB.
URI con caratteri jolly per esportazione 500 URI Un'esportazione può avere fino a 500 URI con caratteri jolly.

Per maggiori informazioni sulla visualizzazione dell'utilizzo attuale del job di esportazione, consulta Visualizzare l'utilizzo attuale della quota.

Job di caricamento

I seguenti limiti si applicano quando caricare dati in BigQuery, utilizzando Console Google Cloud, lo strumento a riga di comando bq o la configurazione jobs.insert API.

Limite Predefinito Note
Job di caricamento per tabella al giorno 1500 offerte di lavoro I job di caricamento, inclusi quelli non riusciti, vengono conteggiati ai fini del limite nel di operazioni tabella al giorno per la tabella di destinazione. Per informazioni sui limiti relativi al numero di operazioni della tabella al giorno per le tabelle standard e le tabelle partizionate, consulta Tabelle.
Job di caricamento al giorno 100.000 offerte di lavoro Il progetto viene reintegrato con una quota massima di 100.000 job di caricamento ogni 24 ore. I job di caricamento non riusciti vengono conteggiati ai fini di questo limite. In alcuni casi, è possibile eseguire query di 100.000 job di caricamento in 24 ore se la quota del giorno precedente è non completamente utilizzato.
Numero massimo di colonne per tabella 10.000 colonne Una tabella può avere fino a 10.000 colonne.
Dimensione massima per job di caricamento 15 TB Le dimensioni totali per tutti i tuoi input CSV, JSON, Avro, Parquet e ORC possono avere dimensioni massime di 15 TB.
Numero massimo di URI di origine nella configurazione del job 10.000 URI La configurazione di un job può avere fino a 10.000 URI di origine.
Numero massimo di file per job di caricamento 10.000.000 file Un job di caricamento può avere fino a 10 milioni di file totali, inclusi tutti i file che corrispondono a tutti gli URI con caratteri jolly.
Numero massimo di file nel bucket Cloud Storage di origine Circa 60.000.000 di file Un job di caricamento può leggere da un bucket Cloud Storage contenente fino a circa 60.000.000 di file.
Limite di tempo di esecuzione del job di caricamento 6 ore Un job di caricamento non riesce se viene eseguito per più di sei ore.
Avro: dimensione massima dei blocchi di dati dei file 16 MB Il limite per le dimensioni dei blocchi di dati dei file Avro è 16 MB.
CSV: dimensione massima della cella 100 MB Le celle CSV possono avere una dimensione massima di 100 MB.
CSV: dimensione massima della riga 100 MB Le righe CSV possono avere una dimensione massima di 100 MB.
CSV: dimensione massima del file - compresso 4 GB Il limite per le dimensioni di un file CSV compresso è 4 GB.
CSV: dimensione massima del file - non compresso 5 TB Il limite per le dimensioni di un file CSV non compresso è 5 TB.
JSON: dimensione massima della riga 100 MB Le righe JSON possono avere una dimensione massima di 100 MB.
JSON: dimensione massima del file, compresso 4 GB Il limite per le dimensioni di un file JSON compresso è 4 GB.
JSON: dimensione massima del file - non compresso 5 TB Il limite per le dimensioni di un file JSON non compresso è 5 TB.

Se superi regolarmente i limiti dei job di caricamento a causa di aggiornamenti frequenti, valuta in modalità flusso di dati in BigQuery.

Per informazioni sulla visualizzazione dell'utilizzo attuale dei job di caricamento, consulta Visualizzare l'utilizzo attuale della quota.

Considerazioni sulla quota del job di caricamento di BigQuery Data Transfer Service

I job di caricamento creati dai trasferimenti di BigQuery Data Transfer Service sono inclusi in Quote di BigQuery sui job di caricamento. È importante considerare il numero di trasferimenti che abiliti in ciascun progetto per impedire trasferimenti e altre i job di caricamento generando quotaExceeded errori.

Puoi utilizzare la seguente equazione per stimare il numero di job di caricamento richiesti dai tuoi trasferimenti:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

Dove:

  • Number of transfers è il numero di configurazioni di trasferimento che abiliti nel tuo progetto.
  • Number of tables è il numero di tabelle create da ogni tipo di trasferimento specifico. Il numero di tabelle varia in base al tipo di trasferimento:

    • I trasferimenti di Campaign Manager creano circa 25 tabelle.
    • I trasferimenti di Google Ads creano circa 60 tabelle.
    • I trasferimenti di Google Ad Manager creano circa 40 tabelle.
    • I trasferimenti di Google Play creano circa 25 tabelle.
    • I trasferimenti di Search Ads 360 creano circa 50 tabelle.
    • I trasferimenti di YouTube creano circa 50 tabelle.
  • Schedule frequency indica la frequenza di esecuzione del trasferimento. Per ogni tipo di trasferimento, vengono fornite le programmazioni di esecuzione:

  • Refresh window è il numero di giorni da includere nel trasferimento dei dati. Se immetti 1, il backfill giornaliero non viene eseguito.

Job di copia

I seguenti limiti si applicano ai job BigQuery per copiare tabelle, inclusi i job che creano una copia, un clone o uno snapshot di una tabella standard, un clone di tabelle o snapshot della tabella. I limiti si applicano ai job creati utilizzando la console Google Cloud, bq a riga di comando, oppure Metodo jobs.insert che specifica il campo copy nella configurazione del job. I job di copia vengono conteggiati ai fini di questi limiti indipendentemente dal fatto che abbiano esito positivo o negativo.

Limite Predefinito Note
Copia job per tabella di destinazione al giorno Vedi Operazioni tabella al giorno.
Job di copia al giorno 100.000 offerte di lavoro Il progetto può eseguire fino a 100.000 job di copia al giorno.
Job di copia tra regioni per tabella di destinazione al giorno 100 job Il progetto può eseguire fino a 100 job di copia tra regioni per una destinazione tabella al giorno.
Job di copia tra regioni al giorno 2000 offerte di lavoro Il progetto può eseguire fino a 2000 job di copia tra regioni al giorno.
Numero di tabelle di origine da copiare 1200 tabelle di origine Puoi copiare da un massimo di 1200 tabelle di origine per job di copia.

Per informazioni sulla visualizzazione dell'utilizzo attuale dei job di copia, consulta Job di copia - Visualizzazione dell'utilizzo attuale delle quote.

I seguenti limiti si applicano Copia di set di dati:

Limite Predefinito Note
Numero massimo di tabelle nel set di dati di origine 20.000 tabelle Un set di dati di origine può avere fino a 20.000 tabelle.
Numero massimo di tabelle che possono essere copiate per esecuzione in una destinazione set di dati nella stessa regione 20.000 tabelle Il progetto può copiare 20.000 tabelle per esecuzione in un set di dati di destinazione che si trova nella stessa regione.
Numero massimo di tabelle che possono essere copiate per esecuzione in una destinazione in un'altra regione 1000 tabelle Il tuo progetto può copiare 1000 tabelle per esecuzione in un set di dati di destinazione che si trova in un'altra regione. Ad esempio, se configuri una copia tra regioni di un set di dati con 8000 tabelle, quindi BigQuery Data Transfer Service crea automaticamente otto esecuzioni in modo sequenziale. La prima esecuzione copia 1000 tabelle. Ventiquattro ore dopo, la seconda esecuzione copia 1000 tabelle. Questo processo continua fino a quando non vengono copiate tutte le tabelle nel set di dati, fino a un massimo di 20.000 per set di dati.

Prenotazioni

Le seguenti quote si applicano prenotazioni:

Quota Predefinito Note
Numero totale di slot per la regione dell'UE 5000 slot Il numero massimo di slot BigQuery che puoi acquistare in più regioni UE utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per la regione degli Stati Uniti 10.000 slot Il numero massimo di slot BigQuery che puoi acquistare nella località multiregionale degli Stati Uniti, utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per la regione us-east1 4000 slot Il numero massimo di slot BigQuery che puoi effettuare un acquisto nella regione elencata utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per le seguenti regioni:
  • asia-south1
  • asia-southeast1
  • europe-west2
  • us-central1
  • us-west1
2000 slot Il numero massimo di slot BigQuery che puoi acquistare in ognuna delle regioni elencate usando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per le seguenti regioni:
  • asia-east1
  • asia-northeast1
  • asia-northeast3
  • asia-southeast2
  • australia-southeast1
  • europe-north1
  • europe-west1
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us-east4
  • southamerica-east1
1000 slot Il numero massimo di slot BigQuery che puoi acquistare in ognuna delle regioni elencate usando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per le regioni di BigQuery Omni 100 slot Il numero massimo di slot BigQuery che puoi acquistare in BigQuery Omni utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud
Numero totale di slot per tutte le altre regioni 500 slot Il numero massimo di slot BigQuery che puoi acquistare in ogni altra regione utilizzando la console Google Cloud.
Visualizza le quote nella console Google Cloud

Alle prenotazioni si applicano i seguenti limiti:

Limite Valore Note
Numero di progetti di amministrazione per le prenotazioni di slot 5 progetti per organizzazione Il numero massimo di progetti all'interno di un'organizzazione che possono contenere un oggetto una prenotazione o un impegno attivo per slot per una determinata località; regione.
Numero massimo di prenotazioni della versione standard 10 prenotazioni per progetto Il numero massimo di prenotazioni di versioni Standard per progetto di amministrazione all'interno di un'organizzazione per una determinata località / regione.
Numero massimo di prenotazioni per la versione Enterprise o Enterprise Plus 200 prenotazioni per progetto Il numero massimo di prenotazioni della versione Enterprise o Enterprise Plus per progetto di amministrazione all'interno di un'organizzazione per una determinata località / regione.

Set di dati

A BigQuery si applicano i limiti seguenti set di dati:

Limite Predefinito Note
Numero massimo di set di dati Illimitato Non esiste un limite al numero di set di dati che un progetto può avere.
Numero di tabelle per set di dati Illimitato Quando utilizzi una chiamata API, le prestazioni di enumerazione rallentano con l'avvicinarsi 50.000 tabelle in un set di dati. La console Google Cloud può visualizzare fino 50.000 tabelle per ogni set di dati.
Numero di risorse autorizzate nell'elenco di controllo dell'accesso di un set di dati 2500 risorse L'elenco di controllo dell'accesso di un set di dati può avere un massimo di 2500 utenti autorizzati di risorse, tra cui viste autorizzate, set di dati autorizzati, e funzioni autorizzate. Se superi questo limite a causa di un di viste autorizzate, valuta la possibilità di raggruppare le viste in e set di dati.
Numero di operazioni di aggiornamento del set di dati per 10 secondi 5 operazioni Il progetto può effettuare fino a cinque operazioni di aggiornamento del set di dati ogni 10 secondi. Il limite di aggiornamento del set di dati include tutte le operazioni di aggiornamento dei metadati eseguite da:
Lunghezza massima della descrizione di un set di dati 16.384 caratteri Quando aggiungi una descrizione a un set di dati, il testo può contenere al massimo 16.384 caratteri.

Tabelle

Tutte le tabelle

I seguenti limiti si applicano a tutte le tabelle BigQuery.

Limite Predefinito Note
Lunghezza massima del nome di una colonna 300 caratteri Il nome della colonna può contenere un massimo di 300 caratteri.
Lunghezza massima della descrizione di una colonna 1024 caratteri Quando aggiungi una descrizione a una colonna, il testo può contenere al massimo 1024 caratteri.
Profondità massima dei record nidificati 15 livelli Le colonne di tipo RECORD possono contenere nidificate Tipi di RECORD, chiamati anche child. Il limite massimo di profondità nidificata è 15 livelli. Questo limite è indipendente dal fatto che i record siano scalari o basato su array (ripetuto).

Tabelle standard

I seguenti limiti si applicano allo standard BigQuery (integrato) tabelle:

Limite Predefinito Note
Modifiche della tabella al giorno 1500 modifiche

Il progetto può apportare fino a 1500 modifiche per tabella al giorno. se la modifica aggiunge dati, aggiorna o tronca . Questo limite non può essere modificato e include il totale combinato di tutti job di caricamento, job di copia e job di query che aggiungono o sovrascrivono una tabella di destinazione.

Le istruzioni DML non vengono conteggiate ai fini del numero di tabelle modifiche al giorno.

I flussi di dati non vengono conteggiati ai fini del numero di tabelle modifiche al giorno.

Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella 5 operazioni ogni 10 secondi Il progetto può effettuare fino a cinque operazioni di aggiornamento dei metadati delle tabelle ogni 10 secondi per tabella. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati delle tabelle, eseguite da: Questo limite include anche il totale combinato di tutti i job di caricamento, e i job di query che aggiungono o sovrascrivono una tabella di destinazione o che utilizzano un protocollo DML DELETE, INSERT, MERGE Istruzioni TRUNCATE TABLE o UPDATE per scrivere in una tabella. Tieni presente che le istruzioni DML vengono conteggiate ai fini di questo limite, ma non sono soggette a questo limite se viene raggiunto. Le operazioni DML hanno limiti di frequenza dedicati.

Se superi questo limite, viene visualizzato un messaggio di errore simile a Exceeded rate limits: too many table update operations for this table. Questo errore è temporaneo; puoi riprovare con un backoff esponenziale.

Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi: Controlla i log. Per indicazioni su come diagnosticare e risolvere questo errore, consulta l'articolo Risolvere gli errori di quota.

Numero massimo di colonne per tabella 10.000 colonne Ogni tabella, risultato della query o la definizione della vista può avere fino a 10.000 colonne.

Tabelle esterne

I seguenti limiti si applicano alle tabelle BigQuery con dati archiviati su Cloud Storage in formato Parquet, ORC, Avro, CSV o JSON:

Limite Predefinito Note
Numero massimo di URI di origine per tabella esterna 10.000 URI Ogni tabella esterna può avere fino a 10.000 URI di origine.
Numero massimo di file per tabella esterna 10.000.000 file Una tabella esterna può contenere fino a 10 milioni di file, inclusi tutti che corrispondono a tutti gli URI con caratteri jolly.
Dimensione massima dei dati archiviati in Cloud Storage per tabella esterna 600 TB Una tabella esterna può contenere fino a 600 TB su tutto file di input. Questo limite si applica alle dimensioni dei file archiviati Cloud Storage non corrisponde a quella utilizzata in determinazione del prezzo della query. Per esterno partizionate, il limite viene applicato dopo . l'eliminazione della partizione.
Numero massimo di file nel bucket Cloud Storage di origine Circa 60.000.000 di file Una tabella esterna può fare riferimento a un bucket Cloud Storage contenente fino a circa 60.000.000 di file. Per esternamente partizionate, questo limite viene applicato prima . l'eliminazione della partizione.

Tabelle partizionate

A BigQuery si applicano i limiti seguenti tabelle partizionate.

I limiti di partizione si applicano al totale combinato di tutte job di caricamento, job di copia e job di query che aggiungono o sovrascrivono una partizione di destinazione.

Un singolo job può interessare più partizioni. Ad esempio, job di query e caricamento possono scrivere su più partizioni.

BigQuery utilizza il numero di partizioni interessate da un durante la determinazione della quantità di consumo utilizzata dal job. Flussi di dati gli inserimenti non influiscono su questo limite.

Per informazioni sulle strategie che consentono di rimanere entro i limiti tabelle, consulta Risoluzione dei problemi relativi agli errori di quota

Limite Predefinito Note
Numero di partizioni per tabella partizionata 10.000 partizioni Ogni tabella partizionata può avere fino a 10.000 partizioni. Se superi questo limite, considera l'utilizzo di il clustering oltre al partizionamento o al suo posto.
Numero di partizioni modificate da un singolo job 4000 partizioni Ogni operazione di job (query o caricamento) può interessare fino a 4000 partizioni. BigQuery rifiuta qualsiasi job di query o caricamento che tenti di o modificare più di 4000 partizioni.
Numero di modifiche delle partizioni per tabella partizionata per data di importazione al giorno 5000 modifiche

Il progetto può apportare fino a 5000 modifiche alle partizioni al giorno. se la modifica aggiunge dati, aggiorna o tronca un una tabella partizionata per data di importazione.

Le istruzioni DML non vengono conteggiate ai fini del numero di partizioni modifiche al giorno.

Numero di modifiche delle partizioni per tabella partizionata in colonne al giorno 30.000 modifiche

Il progetto può apportare fino a 30.000 modifiche alle partizioni al giorno per una tabella partizionata per colonne.

Le istruzioni DML non vengono conteggiate ai fini del numero di partizioni modifiche al giorno.

I flussi di dati non vengono conteggiati ai fini del numero di partizione modifiche al giorno.

Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella partizionata 50 modifiche ogni 10 secondi Il progetto può apportare fino a 50 modifiche per tabella partizionata ogni per 10 secondi. Questo limite si applica a tutti gli aggiornamenti dei metadati tabella partizionata operazioni eseguite come segue: Questo limite include anche il totale combinato di tutti i job di caricamento, e i job di query che aggiungono o sovrascrivono una tabella di destinazione o che utilizzano un protocollo DML DELETE, INSERT, MERGE Istruzioni TRUNCATE TABLE o UPDATE per scrivere in una tabella.

Se superi questo limite, viene visualizzato un messaggio di errore simile a Exceeded rate limits: too many partitioned table update operations for this table. Questo errore è temporaneo; puoi riprovare con un backoff esponenziale.

Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi: Controlla i log.

Numero di intervalli possibili per il partizionamento degli intervalli 10.000 intervalli Una tabella partizionata per intervallo può avere fino a 10.000 intervalli possibili. Questo limite si applica alla specifica della partizione quando crei . Dopo aver creato la tabella, il limite si applica anche alle il numero di partizioni esistenti.

Cloni da tavola

A BigQuery si applicano i limiti seguenti cloni di tabelle:

Limite Predefinito Note
Numero massimo di cloni e snapshot in una catena 3 cloni di tabelle o snapshot Cloni e snapshot in combinazione sono limitate a una profondità di 3. Quando cloni o crei snapshot di una tabella di base, puoi: clonare o creare snapshot del risultato solo altre due volte; di clonare o clonare creare uno snapshot del risultato per la terza volta generando un errore. Ad esempio, puoi crea il clone A della tabella di base, crea lo snapshot B del clone A e crea clone C dello snapshot B. Per creare duplicati aggiuntivi del clone di terzo livello o snapshot, utilizza invece un'operazione di copia.
Numero massimo di cloni e snapshot per una tabella di base 1000 cloni o snapshot di tabelle Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, hai raggiunto il limite.

Snapshot tabella

A BigQuery si applicano i limiti seguenti snapshot delle tabelle:

Limite Predefinito Note
Numero massimo di job simultanei di snapshot delle tabelle 100 job Il progetto può eseguire fino a 100 job simultanei di snapshot delle tabelle.
Numero massimo di job di snapshot della tabella al giorno 50.000 offerte di lavoro Il progetto può eseguire fino a 50.000 job di snapshot delle tabelle al giorno.
Numero massimo di job di snapshot della tabella per tabella al giorno 50 job Il progetto può eseguire fino a 50 job di snapshot della tabella per tabella al giorno.
Numero massimo di aggiornamenti dei metadati per snapshot di tabella ogni 10 secondi. 5 aggiornamenti Il tuo progetto può aggiornare i metadati di uno snapshot della tabella fino a cinque volte ogni 10 secondi.
Numero massimo di cloni e snapshot in una catena 3 cloni di tabelle o snapshot Cloni e snapshot in combinazione sono limitate a una profondità di 3. Quando cloni o crei snapshot di una tabella di base, puoi: clonare o creare snapshot del risultato solo altre due volte; di clonare o clonare creare uno snapshot del risultato per la terza volta generando un errore. Ad esempio, puoi crea il clone A della tabella di base, crea lo snapshot B del clone A e crea clone C dello snapshot B. Per creare duplicati aggiuntivi del clone di terzo livello o snapshot, utilizza invece un'operazione di copia.
Numero massimo di cloni e snapshot per una tabella di base 1000 cloni o snapshot di tabelle Non puoi avere più di 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, hai raggiunto il limite.

Visualizzazioni

Alle viste si applicano le quote e i limiti seguenti e le viste materializzate.

Viste logiche

I seguenti limiti si applicano allo standard BigQuery visualizzazioni:

Limite Predefinito Note
Numero massimo di livelli di viste nidificate 16 livelli BigQuery supporta fino a 16 livelli di viste nidificate. È possibile creare visualizzazioni fino a questo limite, ma l'esecuzione di query è limitata a 15 livelli. Se il limite viene superato, BigQuery restituisce INVALID_INPUT errore.
Lunghezza massima di una query GoogleSQL utilizzata per definire una vista 256.000 caratteri Una singola query GoogleSQL che definisce una vista può avere dimensioni massime di 256 kB caratteri. Questo limite si applica a una singola query e non includi la lunghezza delle viste a cui viene fatto riferimento nella query.
Numero massimo di viste autorizzate per set di dati Vedi Set di dati.

Viste materializzate

A BigQuery si applicano i limiti seguenti viste materializzate:

Limite Predefinito Note
Riferimenti tabella di base (stesso set di dati) 20 viste materializzate A ogni tabella di base è possibile fare riferimento in un massimo di 20 viste materializzate dallo stesso set di dati.
Riferimenti tabella di base (stesso progetto) 100 viste materializzate A ogni tabella di base è possibile fare riferimento fino a 100 viste materializzate dallo stesso progetto.
Riferimenti tabella di base (intera organizzazione) 500 viste materializzate A ogni tabella di base è possibile fare riferimento fino a 500 viste materializzate dell'intera organizzazione.
Numero massimo di viste autorizzate per set di dati Vedi Set di dati.

Cerca indici

A BigQuery si applicano i limiti seguenti indici di ricerca:

Limite Predefinito Note
Numero di CREATE INDEX istruzioni DDL per progetto per regione al giorno 500 operazioni Il progetto può emettere fino a 500 CREATE INDEX DDL ogni giorno all'interno di una regione.
Numero di istruzioni DDL dell'indice di ricerca per tabella al giorno 20 operazioni Il progetto può emettere fino a 20 CREATE INDEX oppure DROP INDEX operazioni DDL per tabella al giorno.
Dimensione totale massima dei dati della tabella per organizzazione consentita per la ricerca creazione dell'indice che non viene eseguita in una prenotazione 100 TB in più regioni; 20 TB in tutte le altre regioni Puoi creare un indice di ricerca per una tabella se le dimensioni complessive le tabelle con indici nella tua organizzazione sono al di sotto del limite della tua regione: 100 TB per le regioni multiple US e EU; e 20 TB per tutte le altre regioni. Se i job di gestione degli indici vengono eseguiti tuo propria prenotazione, questo limite non si applica.

Indici vettoriali

A BigQuery si applicano i limiti seguenti indici vettoriali:

Limite Predefinito Note
Numero minimo di righe della tabella di base 5000 righe Per creare un indice vettoriale,una tabella deve avere almeno 5000 righe.
Numero massimo di righe della tabella di base 1.000.000.000 righe Una tabella può avere al massimo 1.000.000.000 di righe per creare un indice vettoriale.
Dimensione massima dell'array nella colonna indicizzata 1600 elementi La colonna da indicizzare può contenere al massimo 1600 elementi nell'array.
Dimensione minima della tabella per la popolazione degli indici vettoriali 10 MB Se crei un indice vettoriale su una tabella di dimensioni inferiori a 10 MB, significa che l'indice non viene compilato. Analogamente, se elimini i dati da un tabella indicizzata vettoriale in modo che le sue dimensioni siano inferiori a 10 MB, l'indice vettoriale è temporaneamente disabilitato. Ciò si verifica indipendentemente anche se utilizzi una tua prenotazione per i job di gestione degli indici. Quando la dimensione di una tabella indicizzata vettoriale supera nuovamente i 10 MB, il suo indice viene vengono compilate automaticamente.
Numero di CREATE VECTOR INDEX istruzioni DDL per progetto per regione al giorno 500 operazioni Per ogni progetto, puoi inviare fino a 500 CREATE VECTOR INDEX operazioni al giorno per ogni regione.
Numero di istruzioni DDL di indice vettoriale per tabella al giorno 10 operazioni Puoi emettere fino a 10 CREATE VECTOR INDEX oppure DROP VECTOR INDEX operazioni per tabella al giorno.
Dimensione totale massima dei dati della tabella per organizzazione consentita per il vettore creazione dell'indice che non viene eseguita in una prenotazione 6 TB Puoi creare un indice vettoriale per una tabella se la dimensione totale delle tabelle con indici nella tua organizzazione sia inferiore a 6 TB. Se le tue i job di gestione degli indici vengono eseguiti tuo propria prenotazione, questo limite non si applica.

Routine

Alle routine si applicano le quote e i limiti seguenti.

Funzioni definite dall'utente

I seguenti limiti si applicano sia agli annunci temporanei sia a quelli permanenti funzioni definite dall'utente nelle query GoogleSQL.

Limite Predefinito Note
Output massimo per riga 5 MB La quantità massima di dati che la funzione JavaScript definita dall'utente può restituire quando l'elaborazione di una singola riga è di circa 5 MB.
Numero massimo di query SQL precedente simultanee con le funzioni JavaScript definite dall'utente 6 query Il progetto può avere fino a sei query SQL precedente simultanee che contengono funzioni definite dall'utente in JavaScript. Questo limite include le interazioni per le query batch. Questo limite non si applica alle query GoogleSQL.
Numero massimo di risorse UDF JavaScript per query 50 risorse Un job di query può avere fino a 50 risorse JavaScript definite dall'utente, come BLOB di codice o file esterni.
Dimensione massima del blob di codice in linea 32 kB Un BLOB di codice inline in una funzione definita dall'utente può avere una dimensione massima di 32 kB.
Dimensione massima di ogni risorsa di codice esterna 1 MB La dimensione massima di ogni risorsa di codice JavaScript è di 1 MB.

Alle funzioni definite dall'utente permanenti si applicano i seguenti limiti:

Limite Predefinito Note
Lunghezza massima del nome di una funzione definita dall'utente 256 caratteri Il nome di una funzione definita dall'utente può contenere fino a 256 caratteri.
Numero massimo di argomenti 256 argomenti Una funzione definita dall'utente può avere fino a 256 argomenti.
Lunghezza massima del nome di un argomento 128 caratteri Il nome di un argomento della funzione definita dall'utente può contenere fino a 128 caratteri.
Profondità massima della catena di riferimento di una funzione definita dall'utente 16 riferimenti Una catena di riferimento delle funzioni definite dall'utente può contenere fino a 16 riferimenti.
Profondità massima di un argomento o di un output di tipo STRUCT 15 livelli Un argomento o un output delle funzioni definite dall'utente STRUCT può essere al massimo 15 livelli.
Numero massimo di campi in STRUCT argomento o output di tipo per funzione definita dall'utente 1024 campi Una funzione definita dall'utente può avere fino a 1024 campi in argomenti di tipo STRUCT e output.
Numero massimo di librerie JavaScript in un CREATE FUNCTION dichiarazione 50 librerie Un'istruzione CREATE FUNCTION può avere fino a 50 codici JavaScript librerie.
Lunghezza massima dei percorsi della libreria JavaScript inclusi 5000 caratteri Il percorso di una libreria JavaScript inclusa in una funzione definita dall'utente può essere fino a 5000 caratteri.
Frequenza di aggiornamento massima per funzione definita dall'utente ogni 10 secondi 5 aggiornamenti Il progetto può aggiornare una funzione definita dall'utente fino a cinque volte ogni 10 secondi.
Numero massimo di funzioni definite dall'utente autorizzate per set di dati Vedi Set di dati.

Funzioni remote

I seguenti limiti si applicano funzioni remote in in BigQuery.

Limite Predefinito Note
Numero massimo di query in parallelo che contengono query funzioni 10 query Puoi eseguire fino a dieci query in parallelo con funzioni remote per progetto.
Dimensioni massime di input 5 MB La dimensione totale massima di tutti gli argomenti di input da una singola riga è 5 MB
Limite dimensioni della risposta HTTP (Cloud Functions di 1ª generazione) 10 MB Il corpo della risposta HTTP della Cloud Function (1ª generazione.) è fino a 10 MB Il superamento di questo valore causa errori nella query.
Limite di dimensione della risposta HTTP (Cloud Functions (2ª generazione) Cloud Run) 15 MB Corpo della risposta HTTP dalla Cloud Function (2ª generazione) Cloud Run ha una dimensione massima di 15 MB. Il superamento di questo valore causa la query errori.
Limite di tempo massimo per le chiamate HTTP (Cloud Functions di 1ª generazione) 9 minuti Puoi impostare il tuo limite di tempo per la prima Cloud Function per una singola chiamata HTTP, ma il limite di tempo massimo è 9 minuti. È possibile superare il limite di tempo impostato per la Cloud Function di 1ª generazione causare errori di chiamata HTTP e di errore delle query.
Limite di tempo per le chiamate HTTP (Cloud Functions (2ª generazione) Cloud Run) 20 minuti Il limite di tempo per una singola chiamata HTTP al tuo Funzione Cloud Function Functions (2ª generazione.) o Cloud Run. Il superamento di questo valore può causare errori di chiamata HTTP e di query.
Numero massimo di nuovi tentativi di chiamata HTTP 20 Il numero massimo di nuovi tentativi per una singola chiamata HTTP alla funzione Cloud Function (1ª generazione, 2ª generazione.) o Cloud Run. Il superamento di questo valore può causare errori di chiamata HTTP e di query.

Funzioni tabella

A BigQuery si applicano i limiti seguenti funzioni di tabella:

Limite Predefinito Note
Lunghezza massima del nome di una funzione di tabella 256 caratteri Il nome di una funzione tabella può contenere fino a 256 caratteri.
Lunghezza massima del nome di un argomento 128 caratteri Il nome di un argomento di funzione tabella può contenere fino a 128 caratteri in lunghezza.
Numero massimo di argomenti 256 argomenti Una funzione tabella può avere fino a 256 argomenti.
Profondità massima della catena di riferimento di una funzione tabella 16 riferimenti Una catena di riferimento di una funzione di tabella può contenere fino a 16 riferimenti.
Profondità massima di un argomento o output di tipo STRUCT 15 livelli Un argomento STRUCT per una funzione tabella può contenere fino a 15 livelli più profondi. Analogamente, un record STRUCT in una tabella l'output della funzione può raggiungere un massimo di 15 livelli.
Numero massimo di campi in un argomento o in una tabella di ritorno del tipo STRUCT per funzione di tabella 1024 campi Un argomento STRUCT per Una funzione di tabella può avere fino a 1024 campi. Analogamente, STRUCT nell'output di una funzione tabella può avere fino a 1024 campi.
Numero massimo di colonne nella tabella di ritorno 1024 colonne Una tabella restituita da una tabella può avere fino a 1024 colonne.
Lunghezza massima dei nomi delle colonne della tabella di ritorno 128 caratteri I nomi di colonna nelle tabelle restituite possono essere fino a 128 caratteri.
Numero massimo di aggiornamenti per funzione di tabella ogni 10 secondi 5 aggiornamenti Il progetto può aggiornare una funzione tabella fino a cinque volte ogni 10 secondi.

Stored procedure per Apache Spark

I seguenti limiti si applicano alle stored procedure BigQuery per Apache Spark:

Limite Predefinito Note
Numero massimo di query di stored procedure simultanee 50 Puoi eseguire fino a 50 query di stored procedure simultanee per ogni progetto.
Numero massimo di CPU in uso 12.000 Puoi utilizzare fino a 12.000 CPU per ogni progetto. Query che hanno già elaborati non utilizzano questo limite.

Puoi utilizzare fino a 2400 CPU per ogni località per ogni progetto, ad eccezione delle seguenti località:

  • asia-south2
  • australia-southeast2
  • europe-central2
  • europe-west8
  • northamerica-northeast2
  • southamerica-west1

In queste località puoi utilizzare fino a 500 CPU per ogni località per ogni progetto.

Se esegui query in parallelo in una località a più regioni e in una singola regione località che si trova nella stessa area geografica, le query potrebbero la stessa quota di CPU in parallelo.

Dimensione totale massima dei dischi permanenti standard in uso 204,8 TB

Puoi utilizzare fino a 204,8 TB di dischi permanenti standard per ogni località per ogni progetto. Le query già elaborate non utilizzano la query. questo limite.

Se esegui query in parallelo in una località a più regioni e in una singola regione località che si trova nella stessa area geografica, le query potrebbero la stessa quota di disco permanente standard.

Blocchi note

Tutte le quote e i limiti di Dataform e Le quote e i limiti di Colab Enterprise si applicano notebook in BigQuery. Si applicano anche i seguenti limiti:

Limite Predefinito Note
Dimensioni massime del blocco note 20 MB

Le dimensioni di un blocco note corrispondono al totale dei contenuti, dei metadati e dell'overhead di codifica.

Puoi visualizzare le dimensioni dei contenuti del blocco note espandendo l'intestazione del blocco note, facendo clic Visualizza, quindi fai clic su Informazioni blocco note.

Numero massimo di richieste al secondo a Dataform 100 Notebooks vengono creati e gestiti tramite Dataform. Qualsiasi azione che crei o modifichi un blocco note viene conteggiata ai fini di questa quota. Questa quota è condivisa con le query salvate. Ad esempio, se apporti 50 modifiche ai blocchi note e 50 modifiche alle query salvate in un secondo, raggiungere la quota.

Query salvate

Tutte le quote e i limiti di Dataform si applicano query salvate. Le seguenti si applicano anche i seguenti limiti:

Limite Predefinito Note
Dimensione massima della query salvata 10 MB
Numero massimo di richieste al secondo a Dataform 100 Le query salvate vengono create e gestite tramite Dataform. Qualsiasi azione che crei o modifichi una query salvata viene conteggiata ai fini di questa quota. Questa quota è condivisa con i blocchi note. Ad esempio, se apporti 50 modifiche ai blocchi note e 50 modifiche alle query salvate in un secondo, raggiungere la quota.

Data Manipulation Language (DML)

I seguenti limiti si applicano a BigQuery DML (Data Manipulation Language) estratti conto:

Limite Predefinito Note
Istruzioni DML al giorno Illimitato Il numero di istruzioni DML che il tuo progetto può eseguire al giorno è illimitato.

Le istruzioni DML non vengono conteggiate ai fini del numero di modifiche delle tabelle al giorno o il numero tabella partizionata modifiche al giorno per le tabelle partizionate.

Le istruzioni DML hanno le seguenti caratteristiche limitazioni di cui tenere conto.
INSERT istruzioni DML simultanee per tabella al giorno 1500 estratti conto Le prime 1500 istruzioni INSERT vengono eseguiti immediatamente dopo l'invio. Una volta raggiunto questo limite, la contemporaneità di istruzioni INSERT che scrivono in una tabella è limitato a 10. Ulteriori istruzioni INSERT vengono aggiunte a in una coda PENDING. Fino a 100 istruzioni INSERT può essere messo in coda in una tabella in qualsiasi momento. Quando Istruzione INSERT completata, la prossima INSERT viene rimossa dalla coda ed eseguita.

Se devi eseguire istruzioni DML INSERT più spesso, valuta la possibilità di trasmettere i flussi di dati alla tabella utilizzando API Storage Scrivi.
Istruzioni DML mutanti simultanee per tabella 2 estratti conto BigQuery esegue fino a due DML mutanti simultanei (UPDATE, DELETE e MERGE) per ogni tabella. Altre istruzioni DML mutanti per una tabella vengono messi in coda.
Istruzioni DML mutanti in coda per tabella 20 estratti conto Una tabella può avere fino a 20 istruzioni DML mutanti in coda in attesa vengono eseguiti tutti i test delle unità. Se invii istruzioni DML mutanti aggiuntive per la tabella, le istruzioni non vengono eseguite.
Tempo massimo in coda per l'istruzione DML 6 ore Un'istruzione DML interattiva con priorità può attendere in coda fino a sei ore. Se l'istruzione non viene eseguita dopo sei ore, ha esito negativo.
Frequenza massima di istruzioni DML per ogni tabella 25 istruzioni ogni 10 secondi Il progetto può eseguire fino a 25 istruzioni DML ogni 10 secondi per ogni tabella. A questo limite contribuiscono entrambe le istruzioni INSERT e DML mutanti.

Per ulteriori informazioni sulla modifica delle istruzioni DML, consulta INSERT contemporaneità DML e UPDATE, DELETE, MERGE Contemporaneità DML.

Query multi-istruzione

I seguenti limiti si applicano query multi-istruzione in in BigQuery.

Limite Predefinito Note
Numero massimo di query multi-istruzione simultanee 1000 query con più dichiarazioni Il progetto può eseguire fino a 1000 partecipanti in contemporanea query con più dichiarazioni.
Limite di tempo cumulativo 24 ore Il limite di tempo cumulativo per una query con più istruzioni è di 24 ore.
Limite di tempo istruzione 6 ore Il limite di tempo per una singola istruzione all'interno di un con più istruzioni è di 6 ore.

CTE ricorsive nelle query

I seguenti limiti si applicano espressioni di tabella comuni (CTE) ricorsive in in BigQuery.

Limite Predefinito Note
Limite di iterazioni 500 iterazioni La CTE ricorsiva può eseguire questo numero di iterazioni. Se questo limite viene superato, viene generato un errore. Per aggirare i limiti di iterazione, consulta Risolvi gli errori relativi ai limiti di iterazione.

Sicurezza a livello di riga

I seguenti limiti si applicano a BigQuery criteri di accesso a livello di riga:

Limite Predefinito Note
Numero massimo di criteri di accesso alle righe per tabella Criteri 400 Una tabella può avere fino a 400 criteri di accesso alle righe.
Numero massimo di criteri di accesso alle righe per query Criteri 6000 Una query può accedere a un massimo di 6000 criteri di accesso alle righe.
Numero massimo di istruzioni DDL CREATE / DROP per criterio ogni 10 secondi 5 estratti conto Il progetto può effettuare fino a cinque istruzioni CREATE o DROP ogni 10 secondi per ogni risorsa del criterio di accesso alle righe.
DROP ALL ROW ACCESS POLICIES istruzioni per tabella per 10 secondi 5 estratti conto Il tuo progetto può costituire fino a cinque DROP ALL ROW ACCESS POLICIES per tabella ogni 10 secondi.

Norme sui dati

I seguenti limiti si applicano mascheramento dei dati dinamici a livello di colonna:

Limite Predefinito Note
Numero massimo di criteri dei dati per tag di criteri. 8 criteri per tag di criteri Fino a otto criteri dei dati per tag di criteri. Uno di questi criteri può essere utilizzato controlli di accesso a livello di colonna. Non sono supportate espressioni di mascheramento duplicate.

BigQuery ML

A BigQuery ML si applicano i limiti seguenti.

Job di query

Tutte le quote e i limiti dei job di query si applicano a GoogleSQL in job di query che usano istruzioni e funzioni di BigQuery ML.

CREATE MODEL estratti conto

I seguenti limiti si applicano CREATE MODEL offerte di lavoro:

Limite Predefinito Note
CREATE MODEL query di istruzioni ogni 48 ore per ogni progetto 20.000 query relative alle istruzioni Alcuni modelli vengono addestrati utilizzando Servizi Vertex AI, che hanno le proprie risorse e quote dei modelli di machine learning.
Limite tempo di esecuzione 24 ore o 72 ore CREATE MODEL il timeout del job è impostato in modo predefinito su 24 ore, ad eccezione delle serie temporali, AutoML e job di ottimizzazione degli iperparametri con timeout a 72 nell'orario lavorativo locale del TAM.

Funzioni di servizio Vertex AI e Cloud AI

I seguenti limiti si applicano alle funzioni che utilizzano Vertex AI per applicazioni linguistici di grandi dimensioni (LLM) e i servizi di IA di Cloud:

Funzione Richieste al minuto Righe per job Numero di job in esecuzione contemporaneamente
ML.ANNOTATE_IMAGE 900 307.800 5
ML.TRANSLATE 3000 1.026.000 5
ML.UNDERSTAND_TEXT 300 102.600 5
ML.GENERATE_TEXT quando viene utilizzato un modello remoto anziché un modello gemini-1.5-pro 60 21.600 5
ML.GENERATE_TEXT quando viene utilizzato un modello remoto anziché un modello gemini-1.5-flash 200 72.000 5
ML.GENERATE_TEXT quando viene utilizzato un modello remoto rispetto al modello gemini-1.0-pro-vision 60 20.000 1
ML.GENERATE_TEXT quando viene utilizzato un modello remoto su una gemini-1.0-pro text-bison Modello text-bison-32 o text-unicorn 60 30.000 5
ML.GENERATE_EMBEDDING se utilizzato con modelli remoti oltre Modelli multimodalembedding Vertex AI 120 25.000 1
ML.GENERATE_EMBEDDING se utilizzato con modelli remoti oltre Vertex AI textembedding-gecko e textembedding-gecko-multilingual modelli 1500 1.000.000 1
ML.PROCESS_DOCUMENT 600 205.200 5
ML.TRANSCRIBE 60 1000 5

Per ulteriori informazioni sulla quota per gli LLM Vertex AI e API Cloud AI Service, consulta i seguenti documenti:

Per richiedere una quota maggiore per le funzioni di BigQuery ML, modifica la per il servizio LLM Vertex AI o Cloud AI associato, e poi inviare un'email a [email protected] e includere informazioni la quota modificata per i servizi LLM o Cloud AI. Per ulteriori informazioni su come e richiedere una quota maggiore per questi servizi, vedi Richiedi una quota superiore.

Definizioni delle quote

Il seguente elenco descrive le quote che si applicano Le funzioni di servizio Vertex AI e Cloud AI:

  • Le funzioni che chiamano un modello di base di Vertex AI ne usano uno Quota Vertex AI, ovvero query per al minuto (QPM). In questo contesto, le query sono chiamate di richiesta dalla funzione all'API del modello Vertex AI. La quota QPM si applica a un modello e tutte le versioni, gli identificatori e le versioni ottimizzate di quel modello. Per per saperne di più sulle quote del modello di base Vertex AI, consulta Quote per regione e modello.
  • Le funzioni che chiamano un servizio di IA Cloud utilizzano la richiesta del servizio di destinazione quotas. Per maggiori dettagli, consulta il riferimento sulle quote del servizio Cloud AI specificato.
  • BigQuery ML utilizza tre quote:

    • Richieste al minuto. Questa quota è il limite per il numero di richieste chiamate al minuto che le funzioni possono effettuare l'API del modello o del servizio di IA Cloud. Questo limite si applica a ogni progetto.

      Per le funzioni che chiamano un modello di base Vertex AI, il numero di chiamate di richiesta al minuto varia in base Endpoint, versione e regione del modello Vertex AI. Questo è concettualmente la stessa quota QPM utilizzata Vertex AI, ma potrebbe avere un superiore alla quota QPM per un modello corrispondente.

    • Righe per job. Questa quota è il limite al numero di righe consentite per ogni job di query.

    • Numero di job in esecuzione contemporaneamente. Questa quota è limite per progetto al numero di query SQL che possono essere eseguite per la funzione specificata.

I seguenti esempi mostrano come interpretare le limitazioni di quota nelle situazioni seguenti:

  • Ho una quota di 1000 QPM in Vertex AI, quindi una query 100.000 righe dovrebbero richiedere circa 100 minuti. Perché il job è più lungo?

    I runtime dei job possono variare anche per gli stessi dati di input. Nel Vertex AI, le chiamate di procedura remota (RPC) hanno diverse le priorità per evitare il drenaggio della quota. Se la quota non è sufficiente, Le RPC con priorità più bassa attendono e potrebbero avere esito negativo se impiega troppo tempo li elaborerai.

  • Come devo interpretare le righe per quota di job?

    In BigQuery, una query può essere eseguita per un massimo di sei ore. La il numero massimo di righe supportate è una funzione di questa sequenza temporale e quota QPM di Vertex AI, per garantire BigQuery può completare l'elaborazione delle query in sei ore. Dal giorno in genere una query non può utilizzare l'intera quota, si tratta di un diverso dalla tua quota QPM moltiplicato per 360.

  • Cosa succede se eseguo un job di inferenza batch su una tabella con rispetto alla quota di righe per job, ad esempio 10.000.000 di righe?

    BigQuery elabora solo il numero di righe specificato dalla di righe per quota job. Ti vengono addebitate solo le chiamate API riuscite per il numero di righe, anziché le 10.000.000 di righe complete nella tabella. Per nelle altre righe, BigQuery risponde alla richiesta con A retryable error occurred: the maximum size quota per query has reached che viene restituito nella colonna status del risultato. Puoi utilizzare questo insieme di script SQL o questo pacchetto Dataform eseguire l'iterazione attraverso le chiamate di inferenza fino a quando tutte le righe sono stati elaborati correttamente.

  • Ho molte più righe da elaborare rispetto a quelle per quota di job. Marco suddividere le mie righe in più query ed eseguirle contemporaneamente aiuto?

    No, perché queste query utilizzano lo stesso modello di BigQuery ML la quota per le richieste al minuto e la quota QPM di Vertex AI. Se ci sono sono più query che rimangono tutte all'interno delle righe per quota e numero di job di job in esecuzione contemporaneamente, l'elaborazione cumulativa esaurisce di richieste per ogni minuto.

BI Engine

I seguenti limiti si applicano a BigQuery BI Engine.

Limite Predefinito Note
Dimensione massima della prenotazione per progetto per località (SQL Interface) 250 GiB Si applica quando si utilizza BI Engine con BigQuery. Si applica in tutti i casi, tranne in Looker Studio senza integrazione nativa.
e
Puoi richiedere un aumento della capacità massima di prenotazione per i tuoi progetti. Gli aumenti delle prenotazioni sono disponibili nella maggior parte delle regioni e potrebbero richiedere da 3 giorni a una settimana.
Dimensione massima della prenotazione per progetto per località (Looker Studio) 100 GB Si applica quando si utilizza BI Engine con Looker Studio senza integrazione nativa. Questo limite non influisce sulle dimensioni delle tabelle su cui esegui una query. BI Engine carica in memoria solo le colonne utilizzate in non l'intera tabella.
Dimensione massima del modello dei dati per tabella (Looker Studio) 10 GB Si applica quando si utilizza BI Engine con Looker Studio senza integrazione nativa. Se hai una prenotazione di 100 GB per progetto per località, BI Engine limita la prenotazione per tabella a 10 GB. Il resto della prenotazione disponibile viene utilizzato per altre tabelle nel progetto.
Numero massimo di partizioni per tabella (Looker Studio) 500 partizioni Si applica quando si utilizza BI Engine con Looker Studio senza integrazione nativa. BI Engine per Looker Studio supporta fino a un massimo di 500 partizioni per tabella.
Numero massimo di righe per query (Looker Studio) 150 milioni Si applica quando si utilizza BI Engine con Looker Studio senza integrazione nativa. BI Engine per Looker Studio supporta fino a 150 milioni di righe di dati sottoposti a query, a seconda della complessità della query.

Analytics Hub

Ad Analytics Hub si applicano i seguenti limiti:

Limite Predefinito Note
Numero massimo di scambi di dati per progetto 500 piattaforme di scambio Puoi creare fino a 500 scambi di dati in un progetto.
Numero massimo di schede per scambio di dati 1000 annunci Puoi creare fino a 1000 schede in uno scambio di dati.
Numero massimo di set di dati collegati per set di dati condiviso 1000 set di dati collegati Tutti gli abbonati ad Analytics Hub, combinati, possono avere un massimo di 1000 set di dati collegati per set di dati condiviso.

Quote e limiti delle API

Queste quote e questi limiti si applicano alle richieste dell'API BigQuery.

API BigQuery

Le seguenti quote si applicano API BigQuery (principale) richieste:

Quota Predefinito Note
Richieste al giorno Illimitato Il tuo progetto può effettuare un numero illimitato di richieste API BigQuery per giorno.
Visualizza la quota nella console Google Cloud
Massimo tabledata.list byte al minuto 7,5 GB in regioni multiple; 3,7 GB in tutte le altre regioni Il progetto può restituire un massimo di 7,5 GB di dati di riga della tabella per minuto per tabledata.list nel us e eu in più regioni e 3, 7 GB di dati per righe di tabelle al minuto in tutte le altre regioni. Questa quota si applica al progetto che contiene la tabella che viene letta. Altre API, tra cui jobs.getQueryResults e recupero risultati da jobs.query e Anche jobs.insert può utilizzare questa quota.
Visualizza la quota nella console Google Cloud

L'API BigQuery Storage Read può sostenere una velocità effettiva notevolmente superiore rispetto a tabledata.list. Se hai bisogno di una velocità effettiva superiore a quella consentita al di sotto di questa quota, ti consigliamo di utilizzare l'API BigQuery Storage Read.

I seguenti limiti si applicano all'API BigQuery Richieste (principali):

Limite Predefinito Note
Numero massimo di richieste API al secondo per utente per metodo 100 richieste Un utente può effettuare fino a 100 richieste API al secondo a un metodo API. Se un utente effettua più di 100 richieste al secondo a un metodo, potrebbe verificarsi una limitazione. Questo limite non si applica a inserimenti di flussi di dati.
Numero massimo di richieste API simultanee per utente 300 richieste Se un utente effettua più di 300 richieste in parallelo, è possibile che si verifichi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati.
Dimensione massima intestazione richiesta 16 KiB La tua richiesta API BigQuery può essere fino a 16 KiB, inclusa la richiesta URL e tutte le intestazioni. Questo limite non si applica al corpo della richiesta, ad esempio come in una richiesta POST.
Massimo jobs.get richieste al secondo 1000 richieste Il progetto può essere composto da un massimo di 1000 jobs.get come utilizzo della CPU, utilizzo della rete, richieste per secondo.
Massimo jobs.query dimensione della risposta 20 MB Per impostazione predefinita, non esiste un numero massimo di righe per il numero di righe di dati restituiti da jobs.query per pagina di risultati. Tuttavia, non devi superare una dimensione massima di risposta di 20 MB. Puoi modificare di righe da restituire utilizzando l'attributo maxResults .
Massimo Dimensione riga jobs.getQueryResults 20 MB La dimensione massima della riga è approssimativa perché il limite si basa sul rappresentazione interna dei dati di riga. Il limite viene applicato durante o transcodifica multimediale.
Massimo projects.list richieste al secondo 2 richieste Il progetto può essere composto da un massimo di due projects.list richieste al secondo.
Numero massimo di tabledata.list richieste al secondo 1000 richieste Il tuo progetto può realizzare fino a 1000 tabledata.list come utilizzo della CPU, utilizzo della rete, richieste per secondo.
Numero massimo di righe per Risposta tabledata.list 100.000 righe Una chiamata tabledata.list può restituire fino a 100.000 righe della tabella. Per ulteriori informazioni, vedi Sfogliare i risultati utilizzando l'API.
Massimo Dimensione riga tabledata.list 100 MB La dimensione massima della riga è approssimativa perché il limite si basa sul rappresentazione interna dei dati di riga. Il limite viene applicato durante o transcodifica multimediale.
Massimo tables.insert richieste al secondo 10 richieste Il progetto può effettuare fino a 10 richieste tables.insert al secondo. Il metodo tables.insert crea un nuovo campo una tabella vuota in un set di dati. Il limite include istruzioni SQL che creano come CREATE TABLE e che scrivono risultati nelle tabelle di destinazione.

API BigQuery Connection

Le seguenti quote si applicano API BigQuery Connection richieste:

Quota Predefinito Note
Richieste di lettura al minuto 1000 richieste al minuto Il tuo progetto può effettuare fino a 1000 richieste al minuto per Metodi dell'API BigQuery Connection che leggono i dati della connessione.
Visualizza la quota nella console Google Cloud
Richieste di scrittura al minuto 100 richieste al minuto Il tuo progetto può effettuare fino a 100 richieste al minuto all'API BigQuery Connection che creano o aggiornano le connessioni.
Visualizza la quota nella console Google Cloud
Connessioni BigQuery Omni create al minuto 10 connessioni create al minuto Il progetto può creare fino a 10 connessioni BigQuery Omni in AWS e Azure al minuto.
La connessione BigQuery Omni utilizza 100 utilizzi di connessione al minuto Il progetto può utilizzare una connessione BigQuery Omni fino a 100 volte al minuto. Questo vale per le operazioni che utilizzano la tua connessione accedere all'account AWS, ad esempio eseguendo query su una tabella.

API BigQuery Migration

I seguenti limiti si applicano API BigQuery Migration:

Limite Predefinito Note
Dimensioni individuali del file per la traduzione SQL batch 10 MB Ogni singolo file di origine e di metadati può avere una dimensione massima di 10 MB. Questo limite non si applica al file ZIP dei metadati generato Strumento di estrazione a riga di comando dwh-migration-dumper.
Dimensione totale dei file di origine per la traduzione batch SQL 1 GB La dimensione totale di tutti i file di input caricati in Cloud Storage può essere fino a 1 GB. Sono inclusi tutti i file di origine e tutti i metadati se scegli di includerli.
Dimensioni della stringa di input per la traduzione SQL interattiva 1 MB La stringa inserita per la traduzione SQL interattiva non deve superino 1 MB.
Dimensione massima del file di configurazione per la traduzione SQL interattiva 50 MB Singoli file di metadati (compressi) e file di configurazione YAML in Cloud Storage non deve superare i 50 MB. Se le dimensioni del file superano i 50 MB, il traduttore interattivo ignora il file di configurazione durante e genera un messaggio di errore. Un metodo per ridurre la dimensione del file di metadati deve utilizzare —database o –schema per filtrare i dati in base ai database quando generi i metadati.

Le seguenti quote si applicano API BigQuery Migration. Le seguenti nella maggior parte dei casi si applicano i valori predefiniti. I valori predefiniti per il tuo progetto potrebbero essere diverso:

Quota Predefinito Note

Richieste di elenco dei servizi di migrazione EDW al minuto

Richieste di elenco dei servizi di migrazione EDW al minuto per utente

12.000 richieste

2500 richieste

Il progetto può effettuare fino a 12.000 richieste dell'elenco delle API di migrazione al minuto.

Ogni utente può effettuare fino a 2500 richieste dell'elenco delle API di migrazione al minuto.

Visualizza le quote nella console Google Cloud .

Richieste di recupero al minuto dal servizio di migrazione EDW

Richieste di recupero del servizio di migrazione EDW al minuto per utente

25.000 richieste

2500 richieste

Il progetto può effettuare fino a 25.000 richieste Get dell'API di migrazione al minuto.

Ogni utente può effettuare fino a 2500 richieste Get dell'API di migrazione per minuto.

Visualizza le quote nella console Google Cloud .

Altre richieste al minuto per il servizio di migrazione EDW

Altre richieste del servizio EDWMigration al minuto per utente

25 richieste

5 richieste

Il progetto può effettuare fino a 25 altre richieste dell'API Migration al minuto.

Ogni utente può effettuare fino a 5 altre richieste dell'API Migration al minuto.

Visualizza le quote nella console Google Cloud .

Richieste di traduzione SQL interattive al minuto

Richieste di traduzione SQL interattive al minuto per utente

200 richieste

50 richieste

Il progetto può effettuare fino a 200 richieste al servizio di traduzione SQL al minuto.

Ogni utente può effettuare fino a 50 altre richieste al servizio di traduzione SQL al minuto.

Visualizza le quote nella console Google Cloud .

API BigQuery Reservation

Le seguenti quote si applicano Richieste dell'API BigQuery Reservation:

Quota Predefinito Note
Richieste al minuto per regione 100 richieste Il tuo progetto può effettuare un totale di massimo 100 chiamate all'API BigQuery Reservation al minuto per regione.
Visualizza le quote nella console Google Cloud
Numero di chiamate SearchAllAssignments al minuto per regione 100 richieste Il progetto può effettuare fino a 100 chiamate Metodo SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud
Richieste per SearchAllAssignments al minuto al regione per utente 10 richieste Ogni utente può effettuare fino a 10 chiamate al Metodo SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Google Cloud
Nei risultati di ricerca della console Google Cloud, cerca per utente).

API BigQuery Data Policy

I seguenti limiti si applicano L'API Data Policy (anteprima):

Limite Predefinito Note
Numero massimo di dataPolicy.list chiamate. 400 richieste al minuto per progetto

600 richieste al minuto per organizzazione
Numero massimo di chiamate dataPolicy.testIamPermissions. 400 richieste al minuto per progetto

600 richieste al minuto per organizzazione
Numero massimo di richieste di lettura. 1200 richieste al minuto per progetto

1800 richieste al minuto per organizzazione
Sono incluse le chiamate a dataPolicy.get e dataPolicy.getIamPolicy.
Numero massimo di richieste di scrittura. 600 richieste al minuto per progetto

900 richieste al minuto per organizzazione

Sono incluse le chiamate a:

API IAM

Le seguenti quote si applicano quando utilizzi Identity and Access Management in BigQuery per recuperare e impostare IAM i criteri e testare le autorizzazioni IAM. Istruzioni DCL (Data Control Language) vengono conteggiate ai fini della quota SetIAMPolicy.

Quota Predefinito Note
IamPolicy richieste al minuto per utente 1500 richieste al minuto per utente Ogni utente può effettuare fino a 1500 richieste al minuto per progetto.
Visualizza la quota nella console Google Cloud
IamPolicy richieste al minuto per progetto 3000 richieste al minuto per progetto Il progetto può effettuare fino a 3000 richieste al minuto.
Visualizza la quota nella console Google Cloud
Regione singola SetIAMPolicy richieste al minuto per progetto 1000 richieste al minuto per progetto Il tuo progetto a una singola regione può effettuare fino a 1000 richieste per minuto.
Visualizza la quota nella console Google Cloud
Più regioni SetIAMPolicy richieste al minuto per progetto 2000 richieste al minuto per progetto Il tuo progetto multiregionale può effettuare fino a 2000 richieste al minuto.
Visualizza la quota nella console Google Cloud
Regione omnicanale SetIAMPolicy richieste al minuto per progetto 200 richieste al minuto per progetto Il tuo progetto omnicanale può effettuare fino a 200 richieste al minuto.
Visualizza la quota nella console Google Cloud

API Storage Read

Le seguenti quote si applicano Richieste dell'API BigQuery Storage Read:

Quota Predefinito Note
Richieste di lettura del piano dati al minuto per utente 25.000 richieste Ogni utente può effettuare fino a 25.000 chiamate ReadRows al minuto per progetto.
Visualizza la quota nella console Google Cloud
Richieste di lettura del piano di controllo al minuto per utente 5000 richieste Ogni utente può creare fino a 5000 metadati dell'API Storage Read di operazioni di base al minuto per progetto. Le chiamate ai metadati includono CreateReadSession e SplitReadStream metodi.
Visualizza la quota nella console Google Cloud

I seguenti limiti si applicano Richieste dell'API BigQuery Storage Read:

Limite Predefinito Note
Lunghezza massima di riga/filtro 1 MB Quando utilizzi l'API Storage Read CreateReadSession chiamata, hai un limite di durata massima di 1 MB per ogni riga o filtro.
Dimensione massima dei dati serializzati 128 MB Quando utilizzi l'API Storage Read ReadRows , la rappresentazione serializzata dei dati in una singola Il messaggio ReadRowsResponse non può superare i 128 MB.
Numero massimo di connessioni simultanee 2000 in regioni multiple; 400 nelle regioni Puoi aprire un massimo di 2000 ReadRows in contemporanea connessioni per progetto in us e eu in più regioni e 400 connessioni ReadRows simultanee in altre regioni. In alcuni casi, potresti essere limitato a un numero minore di simultanei connessioni superiore a questo limite.
Utilizzo massimo di memoria per stream 1,5 GB La memoria massima per stream è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. Stream che ne usano di più di 1,5 GB di memoria per una singola riga potrebbero non riuscire. Per ulteriori informazioni, vedi Risolvi i problemi relativi al superamento della soglia.

API Storage Scrivi

Le seguenti quote si applicano Richieste di API StorageWrite. Le seguenti quote possono essere applicate a livello di cartella. Queste quote vengono quindi aggregate e condivise tra tutti i progetti figlio. Per abilitare questa configurazione, contatta l'assistenza clienti Google Cloud.

Se prevedi di richiedere un limite di quota più elevato, includi il messaggio di errore della quota nella tua richiesta per velocizzare l'elaborazione.

Quota Predefinito Note
Connessioni simultanee 1000 in una regione; 10.000 in una località multiregionale

La quota per le connessioni simultanee si basa sul progetto client che avvia la richiesta API StorageWrite, non sul progetto contenente la risorsa del set di dati BigQuery. Il progetto iniziale è il progetto associato alla chiave API o all'account di servizio.

Il progetto può operare su 1000 connessioni simultanee una regione o 10.000 connessioni simultanee in US e EU regioni multiple.

Quando usi lo stream predefinito in Java o Go, ti consigliamo di utilizzare multiplexing dell'API Storage Scrivi scrivere in più tabelle di destinazione con connessioni condivise in modo da per ridurre il numero complessivo di connessioni necessarie. Se utilizzando il comando Beam connettore con semantica "at-least-once", puoi impostare UseStorageApiConnectionPool a TRUE per abilitare il multiplexing.

Visualizza la quota nella console Google Cloud

Puoi visualizzare la quota di utilizzo e le metriche dei limiti per i tuoi progetti in: Cloud Monitoring. Seleziona il nome del limite di connessioni simultanee in base alla tua regione. Le opzioni sono ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU e ConcurrentWriteConnectionsPerProjectRegion rispettivamente per us, eu e altre regioni.

Ti consigliamo vivamente di configurare avvisi per monitorare l'utilizzo e i limiti della quota. Inoltre, se i tuoi modelli di traffico presentano picchi e/o una crescita organica regolare, potrebbe essere utile eseguire il provisioning eccessivo della quota del 25-50% per gestire una domanda inaspettata.

Velocità effettiva Velocità effettiva di 3 GB al secondo in più regioni; 300 MB al secondo in regioni Puoi trasmettere in streaming fino a 3 Gbps in us e eu in regioni multiple e 300 MBps in altre regioni per progetto.
Visualizza la quota nella console Google Cloud

Puoi visualizzare la quota di utilizzo e le metriche dei limiti per i tuoi progetti in: Cloud Monitoring. Seleziona il nome del limite di velocità effettiva in base alla tua regione. Le opzioni sono AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU e AppendBytesThroughputPerProjectRegion rispettivamente per us, eu e altre regioni. La quota di velocità effettiva di scrittura viene misurata in base al progetto in cui si trova il set di dati di destinazione, non al progetto client.

Ti consigliamo vivamente di configurare avvisi per monitorare l'utilizzo e i limiti della quota. Inoltre, se i tuoi modelli di traffico presentano picchi e/o una crescita organica regolare, potrebbe essere utile eseguire il provisioning eccessivo della quota del 25-50% per gestire una domanda inaspettata.


Richieste CreateWriteStream 10.000 flussi di dati ogni ora, per progetto per regione Puoi chiamare CreateWriteStream fino a 10.000 volte all'ora per progetto e per regione. Valuta l'uso della classe stream predefinito se non ti serve la semantica "exactly-once". Questa quota è all'ora ma la metrica mostrata in Il costo della console Google Cloud è al minuto.
Byte flusso in attesa 10 TB in più regioni; 1 TB nelle regioni Per ogni commit attivato, puoi impegnare fino a 10 TB le regioni multiple us e eu e 1 TB in altre regioni. Non sono disponibili report per questa quota.

I seguenti limiti si applicano Richieste dell'API StorageWrite:

Limite Predefinito Note
Commit in batch 10.000 flussi di dati per tabella Puoi eseguire il commit di massimo 10.000 stream per ciascun Chiamata BatchCommitWriteStream.
AppendRows dimensione della richiesta 10 MB La dimensione massima della richiesta è 10 MB.

Inserimento di flussi di dati

Le quote e i limiti seguenti si applicano quando trasmetti i dati in BigQuery utilizzando API di streaming legacy. Per informazioni sulle strategie per rimanere entro questi limiti, vedi Risoluzione dei problemi relativi agli errori di quota. Se superi queste quote, vengono visualizzati quotaExceeded errori.

Limite Predefinito Note
Numero massimo di byte al secondo per progetto in us e eu più regioni 1 GB al secondo

Il progetto può trasmettere in streaming fino a 1 GB al secondo. Questa quota è cumulativi all'interno di una determinata località multiregionale. In altre parole, la somma byte al secondo trasmessi in flussi a tutte le tabelle per un determinato progetto all'interno di un più regioni è limitato a 1 GB.

Il superamento di questo limite provoca quotaExceeded errori.

Se necessario, puoi richiedere un aumento della quota contattando Assistenza clienti Google Cloud. Richiedi qualsiasi aumento come il prima possibile, almeno due settimane prima di averne bisogno. Quota di aumento richiede tempo per diventare disponibile, soprattutto nel caso un aumento significativo.

Numero massimo di byte al secondo per progetto in tutte le altre località 300 MB al secondo

Il progetto può trasmettere in streaming fino a 300 MB al secondo in tutte le località ad eccezione delle regioni multiple us e eu. Questo è cumulativa all'interno di una determinata località multiregionale. In altre parole, somma dei byte al secondo trasmessi in flussi a tutte le tabelle per un determinato progetto all'interno di una regione è limitato a 300 MB.

Il superamento di questo limite provoca quotaExceeded errori.

Se necessario, puoi richiedere un aumento della quota contattando Assistenza clienti Google Cloud. Richiedi qualsiasi aumento come il prima possibile, almeno due settimane prima di averne bisogno. Quota di aumento richiede tempo per diventare disponibile, soprattutto nel caso un aumento significativo.

Dimensione massima della riga 10 MB Il superamento di questo valore provoca errori di invalid.
Limite dimensioni richiesta HTTP 10 MB

Il superamento di questo valore provoca errori di invalid.

Internamente la richiesta viene tradotta da HTTP JSON in una struttura dei dati interni. La struttura dei dati tradotta ha una propria limite di dimensioni applicato. È difficile prevedere la dimensione del risultato struttura dei dati interni, ma se mantieni le richieste HTTP a 10 MB meno, la probabilità di raggiungere il limite interno è bassa.

Numero massimo di righe per richiesta 50.000 righe Consigliamo di utilizzare un limite massimo di 500 righe. Il batch può aumentare le prestazioni e velocità effettiva fino a un certo punto, ma a scapito della latenza per richiesta. Se il numero di righe per richiesta è insufficiente, l'overhead di ogni richiesta potrebbe un'importazione inefficiente. Se sono presenti troppe righe per richiesta, la velocità effettiva può un calo. Sperimenta con dati rappresentativi (dimensioni di schema e dati) per determinare la dimensione ideale per i dati.
Lunghezza del campo insertId 128 caratteri Il superamento di questo valore provoca errori di invalid.

Per quota aggiuntiva per i flussi di dati, consulta Richiedi un aumento della quota.