GA4 conserve vos données pendant 14 mois maximum. Au-delà, elles disparaissent. Les rapports sur de grands volumes de données sont échantillonnés — les chiffres affichés sont des estimations, pas des réalités. Et impossible de faire une vraie analyse SQL sur vos données comportementales.

La solution : exporter vos données GA4 vers BigQuery dès aujourd'hui. Chaque événement collecté sera stocké en brut, indéfiniment, requêtable en SQL. Ce tutoriel vous montre comment faire, étape par étape, sans toucher à une ligne de code.

// 01Pourquoi exporter GA4 vers BigQuery

Trois raisons majeures justifient de mettre en place cet export :

1. Données brutes non échantillonnées

Dans l'interface GA4, les rapports sur des périodes longues ou des segments complexes sont souvent échantillonnés. Google ne calcule pas sur 100% de vos données — il prend un échantillon et extrapole. Dans BigQuery, chaque requête porte sur 100% des données réelles. Pas d'estimation, pas de biais.

2. Historique illimité

GA4 supprime les données utilisateur après 14 mois par défaut (2 mois si vous n'avez pas modifié ce paramètre). BigQuery conserve vos données aussi longtemps que vous le souhaitez — et la suppression est sous votre contrôle, pas celui de Google. Commencer l'export en janvier 2026 vous permettra d'analyser en janvier 2028 une évolution sur 2 ans entiers.

3. SQL et analyses avancées

L'interface GA4 permet des explorations limitées. BigQuery vous donne accès à SQL standard : jointures avec vos données CRM, analyses de cohortes, funnels personnalisés, attribution multi-touch, machine learning via BigQuery ML. Des analyses qui prendraient des heures à construire dans GA4 (si elles y sont même possibles) se réalisent en quelques lignes SQL.

L'export GA4 → BigQuery était autrefois réservé à GA360, la version enterprise à 150 000€/an. Google l'a ouvert à tous les utilisateurs GA4 gratuits en 2022. En 2026, ne pas l'activer revient à laisser des données précieuses s'évaporer.

// 02Prérequis avant de commencer

Avant de démarrer, vérifiez que vous avez accès aux éléments suivants :

  • Compte Google — le même que celui utilisé pour GA4 (ou un compte avec les droits admin)
  • Accès Administrateur à la propriété GA4 — dans GA4 Admin, vous devez avoir le rôle "Administrateur" sur la propriété (pas seulement Éditeur)
  • Carte bancaire Google Cloud — nécessaire pour créer un projet GCP même en restant sur le niveau gratuit. Aucun débit si vous respectez les quotas.
  • Droits BigQuery Admin sur le projet GCP — nécessaire pour que GA4 puisse écrire dans BigQuery

Si vous gérez ce projet pour un client, il est recommandé de créer le projet GCP sous le compte Google du client (pas le vôtre) pour éviter des problèmes de propriété des données.

// 03Créer un projet Google Cloud Platform

Google Cloud Platform (GCP) est l'environnement cloud de Google qui héberge BigQuery. Voici la procédure exacte :

  1. Rendez-vous sur console.cloud.google.com
  2. Connectez-vous avec votre compte Google
  3. Si c'est la première fois, acceptez les conditions d'utilisation. GCP va vous demander d'activer la facturation — entrez votre carte bancaire. Vous accédez au niveau sandbox gratuit.
  4. Cliquez sur le sélecteur de projet en haut à gauche (il affiche "Sélectionner un projet" ou le nom d'un projet existant)
  5. Cliquez sur Nouveau projet
  6. Donnez un nom à votre projet — par exemple analytics-monsite-2026. L'ID du projet sera généré automatiquement (il doit être unique globalement).
  7. Sélectionnez votre organisation si applicable, ou laissez "Aucune organisation"
  8. Cliquez sur Créer

La création prend 10 à 30 secondes. Une fois créé, assurez-vous que le nouveau projet est bien sélectionné dans le sélecteur en haut de la console.

Configurer une alerte de budget (recommandé)

Pour éviter toute surprise de facturation : dans le menu GCP, allez dans Facturation → Budgets et alertes → Créer un budget. Définissez un budget de 10€/mois avec alerte à 50% et 100%. Vous recevrez un email si vos coûts dépassent ces seuils — ce qui ne devrait jamais arriver pour une PME normale.

// 04Activer l'API BigQuery dans GCP

BigQuery est un service GCP qu'il faut activer explicitement pour votre projet.

  1. Dans la console GCP, allez dans le menu hamburger → API et services → Bibliothèque
  2. Recherchez "BigQuery API"
  3. Cliquez sur le résultat BigQuery API
  4. Cliquez sur Activer

L'activation prend quelques secondes. Une fois activée, BigQuery apparaît dans le menu principal sous "Big Data".

Vérifiez également que votre compte a bien le rôle BigQuery Admin sur ce projet : allez dans IAM et administration → IAM, trouvez votre email, et vérifiez que le rôle inclut "BigQuery Admin" ou "Propriétaire".

// 05Configurer l'export GA4 dans les paramètres de la propriété

C'est l'étape centrale. Voici la procédure exacte dans GA4 :

  1. Dans Google Analytics 4, allez dans Admin (icône engrenage en bas à gauche)
  2. Dans la colonne "Propriété", cliquez sur Liens de produitLiens BigQuery
  3. Cliquez sur le bouton Associer en haut à droite
  4. Cliquez sur Choisir un projet BigQuery
  5. Sélectionnez le projet GCP que vous venez de créer dans la liste
  6. Cliquez sur Confirmer
  7. Dans Emplacement des données, choisissez la région : europe-west1 (Belgique) pour respecter le RGPD. Important : cette région ne peut pas être changée après création.
  8. Dans Fréquence d'exportation, deux options :
    • Quotidienne (recommandé pour débuter) : export une fois par jour, coût minimal
    • Streaming : données disponibles en quasi-temps réel, mais consomme du quota BigQuery. À activer seulement si vous avez besoin d'analyses intraday.
  9. Sélectionnez les flux de données à exporter (choisissez votre flux web)
  10. Cliquez sur Envoyer

GA4 affichera une confirmation. L'export commence le lendemain : vous verrez la première table apparaître dans BigQuery dans les 24 heures suivantes.

// 06Comprendre les tables créées dans BigQuery

Après la première nuit d'export, connectez-vous à BigQuery (console.cloud.google.com → BigQuery). Dans le panneau de gauche, développez votre projet. Vous verrez un dataset nommé analytics_XXXXXXXXX (où XXXXXXXXX = l'ID numérique de votre propriété GA4).

Structure des tables

Table Description Mise à jour
events_YYYYMMDD Données définitives d'une journée. Ex : events_20260327 1 fois/jour (définitive)
events_intraday_YYYYMMDD Données du jour en cours (si streaming activé) Toutes les heures (supprimée en fin de journée)
pseudonymous_users_YYYYMMDD Données utilisateur pseudonymisées (si activé) 1 fois/jour

Structure d'une ligne dans events_YYYYMMDD

Chaque ligne correspond à un événement GA4. Les colonnes principales :

  • event_date — date de l'événement au format YYYYMMDD
  • event_timestamp — timestamp Unix microseconde
  • event_name — nom de l'événement (page_view, purchase, etc.)
  • event_params — ARRAY de paramètres de l'événement (structure RECORD)
  • user_pseudo_id — identifiant utilisateur pseudonymisé (cookie GA4)
  • user_id — identifiant utilisateur connecté (si implémenté)
  • user_properties — ARRAY de propriétés utilisateur
  • device — objet avec category, browser, os
  • geo — objet avec country, region, city
  • traffic_source — objet avec source, medium, name
  • items — ARRAY des produits (pour les événements e-commerce)

La structure imbriquée (ARRAY et RECORD) est la principale différence avec une table SQL classique. Pour extraire un paramètre d'événement, il faut utiliser la fonction UNNEST().

// 07Premières requêtes pour vérifier que tout fonctionne

Vérifier le nombre d'événements par type

SELECT
  event_name,
  COUNT(*) AS nb_events
FROM `votre_projet.analytics_XXXXXXXXX.events_20260327`
GROUP BY event_name
ORDER BY nb_events DESC
LIMIT 20;

Extraire un paramètre d'événement (page_location)

SELECT
  event_name,
  (SELECT value.string_value
   FROM UNNEST(event_params)
   WHERE key = 'page_location') AS page_url,
  COUNT(*) AS hits
FROM `votre_projet.analytics_XXXXXXXXX.events_20260327`
WHERE event_name = 'page_view'
GROUP BY 1, 2
ORDER BY hits DESC
LIMIT 20;

Sessions et utilisateurs par jour sur une plage de dates

SELECT
  event_date,
  COUNT(DISTINCT user_pseudo_id) AS users,
  COUNT(DISTINCT CONCAT(
    user_pseudo_id,
    CAST((SELECT value.int_value FROM UNNEST(event_params)
          WHERE key = 'ga_session_id') AS STRING)
  )) AS sessions
FROM `votre_projet.analytics_XXXXXXXXX.events_*`
WHERE _TABLE_SUFFIX BETWEEN '20260301' AND '20260327'
GROUP BY event_date
ORDER BY event_date;

Le wildcard events_* avec _TABLE_SUFFIX BETWEEN permet de requêter plusieurs tables journalières d'un coup sans scanner inutilement tout le dataset.

Vérifier les événements de conversion

SELECT
  event_name,
  COUNT(*) AS conversions,
  COUNT(DISTINCT user_pseudo_id) AS users_converted
FROM `votre_projet.analytics_XXXXXXXXX.events_*`
WHERE _TABLE_SUFFIX BETWEEN '20260301' AND '20260327'
  AND event_name IN ('purchase', 'generate_lead', 'contact', 'form_submit')
GROUP BY event_name;

// 08Connexion à Looker Studio

Une fois vos données dans BigQuery, les connecter à Looker Studio prend 5 minutes :

  1. Allez sur lookerstudio.google.com
  2. Créez un nouveau rapport (bouton + en bas à droite)
  3. Dans la fenêtre "Ajouter des données", recherchez et sélectionnez BigQuery
  4. Autorisez Looker Studio à accéder à votre BigQuery si demandé
  5. Sélectionnez votre projet, votre dataset (analytics_XXXXXXXXX), puis la table ou vue souhaitée
  6. Cliquez sur Ajouter et Ajouter au rapport

Recommandation importante : Ne connectez pas directement les tables events_YYYYMMDD brutes à Looker Studio. Créez d'abord des vues BigQuery (Views) qui pré-agrègent les données. Par exemple, une vue "sessions_journalieres" qui regroupe sessions, utilisateurs et conversions par jour. Looker Studio sera plus réactif et les visualisations plus simples à construire.

Pour aller plus loin, consultez notre article GA4 + BigQuery + Looker Studio : le trio gagnant qui détaille les 5 dashboards essentiels à construire.

// 09Coût et quotas BigQuery

BigQuery fonctionne avec deux types de coûts : le stockage et les requêtes (traitement des données).

Niveau gratuit (sandbox)

  • Stockage : 10 Go/mois gratuits. Un site avec 100 000 sessions/mois génère environ 1 à 3 Go de données GA4 par mois. Vous resterez dans le niveau gratuit pendant des années.
  • Requêtes : 1 To de données traitées/mois gratuits. C'est énorme. Une requête sur 1 an de données GA4 pour un site PME traite généralement 50 à 200 Mo — vous pouvez en lancer des centaines par mois sans dépasser.

Au-delà du niveau gratuit

  • Stockage : 0,02$/Go/mois supplémentaire (soit 2€ pour 100 Go)
  • Requêtes : 5$/To traité supplémentaire

Bonnes pratiques pour minimiser les coûts

  • Toujours utiliser _TABLE_SUFFIX BETWEEN pour limiter les tables scannées
  • Éviter SELECT * : ne sélectionnez que les colonnes nécessaires
  • Créer des vues pré-agrégées pour Looker Studio plutôt que de requêter les tables brutes
  • Utiliser le bouton "Estimer" dans l'interface BigQuery avant de lancer une requête lourde

Pour la plupart des PME, le budget BigQuery mensuel sera de 0€. Consultez notre article Stack data PME pour comparer avec d'autres solutions analytics.

Besoin d'un dashboard data actionnable ?

Ted Chan configure votre stack GA4 + BigQuery + Looker Studio en moins de 2 semaines.

Réserver un appel gratuit → Envoyer un message

// FAQQuestions fréquentes

Faut-il une carte bancaire pour créer un projet Google Cloud Platform ?

Oui, Google demande une carte bancaire pour activer un compte GCP, même pour accéder au niveau gratuit. Aucun débit n'est effectué si vous restez dans les limites du sandbox (10 Go stockage, 1 To de requêtes/mois). Configurez des alertes de budget dans GCP pour être notifié avant tout dépassement.

Combien de temps faut-il attendre après avoir activé l'export GA4 ?

La première table de données apparaît dans BigQuery le lendemain de l'activation, généralement dans les 24 heures. L'export en streaming (si activé) est disponible en quasi-temps réel dans la table events_intraday du jour en cours.

L'export GA4 BigQuery récupère-t-il les données historiques ?

Non. L'export commence à la date d'activation. Il n'est pas possible de récupérer les données GA4 antérieures à cette date via BigQuery. C'est une raison importante pour activer l'export le plus tôt possible — chaque jour sans export est une journée de données perdues pour l'historique BigQuery.

Puis-je avoir plusieurs propriétés GA4 dans le même projet BigQuery ?

Oui. Chaque propriété GA4 crée son propre dataset dans BigQuery (analytics_XXXXXXXXX). Vous pouvez avoir plusieurs propriétés dans un même projet GCP, ce qui simplifie la gestion pour les agences ou les entreprises multi-sites.

Quelle région choisir pour mon dataset BigQuery ?

Pour les entreprises françaises, choisissez europe-west1 (Belgique) ou europe-west9 (Paris) pour respecter la réglementation RGPD sur la localisation des données. La région ne peut pas être modifiée après la création du dataset — ce choix est définitif.

La connexion GA4 BigQuery impacte-t-elle les performances de mon site ?

Non. L'export GA4 vers BigQuery est entièrement géré côté serveur par Google. Aucun script supplémentaire n'est chargé sur votre site, aucun impact sur les temps de chargement ou les performances front-end.

// FINCe qu'il faut retenir

Connecter GA4 à BigQuery prend moins de 30 minutes et ne coûte rien pour une PME. La procédure se résume à : créer un projet GCP, activer l'API BigQuery, configurer le lien dans GA4 Admin. Le lendemain, vos données sont dans BigQuery, prêtes à être requêtées en SQL.

La valeur de cet export se mesure sur la durée : dans 12 mois, vous disposerez d'un historique non échantillonné que l'interface GA4 n'aurait plus. Dans 24 mois, vous pourrez faire des analyses de cohortes et des comparaisons annuelles exactes. Chaque jour sans cet export est une journée de données définitivement perdues.

Prochaine étape : construire vos dashboards Looker Studio sur ces données. Notre article GA4 + BigQuery + Looker Studio : le trio gagnant vous guide pour créer les 5 dashboards essentiels. Pour gagner encore plus de temps, pensez à automatiser ses rapports GA4 avec des livraisons hebdomadaires automatiques. Vous trouverez également des inspirations visuelles dans notre template Looker Studio e-commerce et une comparaison des outils dans notre article Looker Studio vs Power BI.

Ted Chan, consultant freelance data analytics Paris

Ted Chan

Consultant freelance IA, Data et SEO/GEO basé à Paris. 4 ans d'expérience sur des projets concrets pour PME, startups et e-commerçants. Spécialisé en automatisation n8n, analytics GA4/BigQuery et référencement génératif.