Je vais être direct : la majorité des PME françaises prennent encore leurs décisions marketing au feeling. Pas parce qu'elles manquent d'ambition, mais parce qu'elles pensent que la data est un sujet réservé aux grands groupes avec des budgets à six chiffres et des équipes de data engineers.

C'est faux. En 2026, vous pouvez monter une infrastructure data complète — collecte, stockage, analyse et visualisation — pour moins de 50 euros par mois. Parfois même gratuitement. Et sans développeur.

Dans ce guide, je vous montre exactement comment assembler GA4, BigQuery, Looker Studio et Python pour transformer votre PME en une entreprise pilotée par la donnée. Requêtes SQL incluses, étape par étape.

// 01Pourquoi votre PME a besoin d'une stack data

La data n'est pas un luxe de grande entreprise

Il y a cinq ans, mettre en place une stack data sérieuse nécessitait un budget conséquent : licences de logiciels propriétaires, serveurs dédiés, un data analyst à plein temps. Aujourd'hui, Google offre gratuitement des outils qui rivalisent avec des solutions payantes à plusieurs milliers d'euros par mois.

Le problème n'est plus le coût. C'est le savoir-faire. Savoir quels outils choisir, comment les connecter entre eux, et surtout quelles questions poser à vos données. C'est exactement ce que ce guide couvre.

Ce que coûte l'absence de données

Quand je fais un audit chez un nouveau client PME, je retrouve presque toujours les mêmes symptômes :

  • Des décisions marketing au feeling : "On a l'impression que Facebook marche bien" — sauf qu'en regardant les données, 80% du CA vient du SEO et les campagnes Facebook ont un ROAS de 0,3.
  • Du budget gaspillé : sans données, impossible de savoir quels canaux d'acquisition sont rentables. J'ai vu des PME dépenser 3 000€/mois en Google Ads sur des mots-clés qui ne convertissent pas, alors que leur blog SEO génère des leads gratuitement.
  • Aucune visibilité sur le parcours client : d'où viennent vos clients ? Quelles pages consultent-ils avant d'acheter ? Combien de visites faut-il avant une conversion ? Sans ces réponses, vous optimisez à l'aveugle.
  • Des rapports manuels chronophages : chaque lundi, quelqu'un passe deux heures à copier-coller des chiffres de GA4 dans un Google Sheets. Temps perdu, erreurs garanties.

L'opportunité 2026 : outils gratuits ou quasi-gratuits

Voici la réalité économique de la stack data en 2026 :

  • GA4 : gratuit, sans limite de volume pour la version standard
  • BigQuery : gratuit jusqu'à 1 TB de requêtes/mois et 10 GB de stockage
  • Looker Studio : entièrement gratuit
  • Python : open source, gratuit

Le seul coût réel, c'est le temps de mise en place. Et avec ce guide, vous pouvez réduire ce temps à quatre semaines, en y consacrant quelques heures par semaine.

// 02La stack recommandée : vue d'ensemble

Site web / App GA4 BigQuery Looker Studio
collecte tracking stockage & SQL dashboards

+ Python pour les analyses avancées (cohortes, RFM, prédictions)

Pourquoi ces 4 outils ensemble

Chaque brique a un rôle précis :

  • GA4 collecte les données de comportement sur votre site. C'est votre capteur.
  • BigQuery stocke les données brutes et vous permet de les interroger en SQL. C'est votre entrepôt de données.
  • Looker Studio transforme ces données en dashboards visuels que toute l'équipe peut consulter. C'est votre cockpit.
  • Python intervient quand vous avez besoin d'analyses avancées que SQL et Looker ne couvrent pas. C'est votre laboratoire.

L'avantage massif de cette stack : tout est dans l'écosystème Google. GA4 exporte nativement vers BigQuery. BigQuery se connecte en un clic à Looker Studio. Pas d'ETL compliqué, pas de connecteur tiers payant, pas de maintenance.

Coût total réel

Pour une PME avec un trafic web de 10 000 à 100 000 sessions par mois :

  • GA4 : 0€
  • BigQuery (stockage + requêtes dans le free tier) : 0€
  • Looker Studio : 0€
  • Python / Jupyter : 0€
  • Si dépassement du free tier BigQuery : ~10-40€/mois

Total : entre 0€ et 50€/mois. Comparez ça au 500€/mois minimum pour un outil comme Tableau ou aux 1 500€+ pour une licence Salesforce Analytics.

// 03GA4 : collecter les bonnes données

GA4 est le fondement de votre stack. Si la collecte est mal configurée, tout le reste — BigQuery, Looker Studio, analyses Python — sera construit sur du sable. Prenez le temps de bien faire cette étape.

Configuration essentielle

Voici les éléments à configurer dès le premier jour :

  • Événements de base : GA4 collecte automatiquement les page_view, session_start, first_visit et user_engagement. Vérifiez qu'ils remontent correctement.
  • Événements personnalisés : créez des événements pour chaque action business importante — clic sur le bouton de contact, ajout au panier, soumission de formulaire, téléchargement de document. Utilisez Google Tag Manager pour les configurer sans toucher au code.
  • Conversions : marquez vos événements clés comme conversions (achat, lead, inscription). C'est ce qui vous permettra de calculer des taux de conversion et d'attribuer de la valeur à vos canaux.
  • Audiences : créez des segments d'utilisateurs (visiteurs qui ont consulté plus de 3 pages, abandonneurs de panier, clients récurrents) pour les réutiliser dans vos analyses et vos campagnes Google Ads.
  • Paramètres UTM : imposez une convention de nommage UTM stricte pour toutes vos campagnes. Sans ça, vos données d'acquisition seront un chaos inutilisable.

Les erreurs courantes à éviter

En quatre ans d'audit GA4, je retrouve systématiquement les mêmes erreurs chez les PME :

  • Pas de tracking e-commerce : GA4 propose un tracking e-commerce complet (view_item, add_to_cart, begin_checkout, purchase) mais il faut l'implémenter manuellement. Sans ça, impossible de savoir quel produit génère combien de revenus depuis quel canal.
  • Pas de Consent Mode : sans consentement correctement géré, vous perdez des données et vous risquez des sanctions CNIL.
  • Trop d'événements custom inutiles : chaque événement doit répondre à une question business. "Scroll 50%" ne sert à rien si vous ne savez pas quoi en faire.
  • Filtres manquants : le trafic interne (vos propres visites, celles de l'agence) pollue vos données. Filtrez-le.

GA4 Consent Mode V2 pour la conformité RGPD

Depuis mars 2024, Google exige le Consent Mode V2 pour continuer à utiliser les fonctionnalités de remarketing et de mesure avancée. En France, la CNIL est claire : pas de traceur sans consentement explicite.

Concrètement, le Consent Mode V2 fonctionne ainsi :

  • Si l'utilisateur accepte les cookies : GA4 collecte toutes les données normalement.
  • Si l'utilisateur refuse : GA4 envoie des pings anonymisés (sans cookies, sans identifiants). Google utilise ensuite la modélisation statistique pour estimer les conversions manquantes.
  • Les deux nouveaux paramètres obligatoires sont ad_user_data et ad_personalization, en plus des existants analytics_storage et ad_storage.

Utilisez une CMP compatible (Axeptio, Didomi, Cookiebot) et configurez GTM pour transmettre les signaux de consentement à GA4. C'est indispensable, non négociable.

Les 5 rapports GA4 à consulter chaque semaine

  1. Acquisition de trafic : d'où viennent vos visiteurs cette semaine vs la précédente. Identifiez les hausses et baisses par canal.
  2. Pages et écrans : quelles pages performent le mieux en termes de vues, engagement et conversions.
  3. Événements de conversion : combien de conversions par type, quel est le taux de conversion global.
  4. Rapport d'acquisition par source/medium : précisément quelle campagne, quel email, quel article de blog génère des résultats.
  5. Rétention : vos nouveaux visiteurs reviennent-ils ? Le rapport de cohortes GA4 vous donne cette réponse.

Connecter GA4 à GTM pour un tracking avancé

Google Tag Manager est votre meilleur allié pour enrichir le tracking sans modifier le code source de votre site. Créez un conteneur GTM, ajoutez le snippet sur votre site, puis configurez vos balises GA4 via l'interface.

Les cas d'usage les plus fréquents : tracking des clics sur les boutons CTA, suivi des soumissions de formulaire, mesure de la profondeur de scroll, tracking des vidéos YouTube intégrées, et surtout le tracking e-commerce enrichi.

// 04BigQuery : stocker et interroger vos données

Qu'est-ce que BigQuery et pourquoi c'est un game-changer

BigQuery est l'entrepôt de données cloud de Google. En termes simples, c'est une base de données gigantesque dans laquelle vous pouvez stocker des milliards de lignes et les interroger en quelques secondes avec du SQL.

Pour une PME, le changement est radical. Au lieu d'être limité aux rapports pré-construits de GA4 (qui sont souvent insuffisants), vous accédez aux données brutes, événement par événement. Vous pouvez poser n'importe quelle question à vos données, croiser des sources, et créer des analyses sur mesure.

Connecter GA4 → BigQuery en 5 minutes

C'est l'une des fonctionnalités les plus sous-estimées de GA4 : l'export natif vers BigQuery est gratuit et se configure en quelques clics :

  1. Dans GA4, allez dans Admin → Liens BigQuery.
  2. Cliquez sur Associer et sélectionnez votre projet Google Cloud (créez-en un si nécessaire — c'est gratuit).
  3. Choisissez l'export quotidien (les données du jour sont exportées chaque nuit) ou streaming (temps réel, mais consomme plus de ressources).
  4. Sélectionnez la localisation des données. Pour la conformité RGPD, choisissez europe-west1 (Belgique) ou europe-west9 (Paris).
  5. Validez. Les données commencent à remonter sous 24 heures.

À partir de ce moment, chaque événement GA4 — chaque page vue, chaque clic, chaque achat — est stocké dans une table BigQuery que vous pouvez interroger librement.

Coût réel de BigQuery

Le free tier de BigQuery est généreux :

  • 1 TB de requêtes gratuites par mois : cela représente environ 500 à 1000 requêtes complexes sur un dataset PME. Largement suffisant.
  • 10 GB de stockage gratuit : une PME avec 50 000 sessions/mois génère environ 1 à 2 GB de données par an dans BigQuery. Vous avez de la marge.
  • Au-delà : 6,25$/TB de requêtes et 0,02$/GB/mois de stockage. Pour une PME, le dépassement rare coûtera entre 10 et 40€/mois.

5 requêtes SQL prêtes à copier-coller

Voici les requêtes que j'installe systématiquement chez mes clients PME. Remplacez votre-projet.analytics_XXXXXXX par l'identifiant de votre dataset.

1. Revenus par source d'acquisition

SELECT
  traffic_source.source AS source,
  traffic_source.medium AS medium,
  COUNT(DISTINCT user_pseudo_id) AS utilisateurs,
  COUNTIF(event_name = 'purchase') AS achats,
  SUM(ecommerce.purchase_revenue) AS revenu_total,
  SAFE_DIVIDE(
    SUM(ecommerce.purchase_revenue),
    COUNT(DISTINCT user_pseudo_id)
  ) AS revenu_par_utilisateur
FROM
  `votre-projet.analytics_XXXXXXX.events_*`
WHERE
  _TABLE_SUFFIX BETWEEN
    FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 30 DAY))
    AND FORMAT_DATE('%Y%m%d', CURRENT_DATE())
GROUP BY source, medium
ORDER BY revenu_total DESC
LIMIT 20;

2. Pages les plus performantes

SELECT
  (SELECT value.string_value FROM UNNEST(event_params)
   WHERE key = 'page_location') AS page,
  COUNT(*) AS pages_vues,
  COUNT(DISTINCT user_pseudo_id) AS visiteurs_uniques,
  COUNTIF(event_name = 'purchase') AS conversions,
  SAFE_DIVIDE(
    COUNTIF(event_name = 'purchase'),
    COUNT(DISTINCT user_pseudo_id)
  ) AS taux_conversion
FROM
  `votre-projet.analytics_XXXXXXX.events_*`
WHERE
  event_name IN ('page_view', 'purchase')
  AND _TABLE_SUFFIX BETWEEN
    FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 30 DAY))
    AND FORMAT_DATE('%Y%m%d', CURRENT_DATE())
GROUP BY page
ORDER BY pages_vues DESC
LIMIT 30;

3. Taux de conversion par device

SELECT
  device.category AS appareil,
  COUNT(DISTINCT user_pseudo_id) AS utilisateurs,
  COUNTIF(event_name = 'purchase') AS achats,
  SAFE_DIVIDE(
    COUNTIF(event_name = 'purchase'),
    COUNT(DISTINCT user_pseudo_id)
  ) AS taux_conversion,
  SUM(ecommerce.purchase_revenue) AS revenu
FROM
  `votre-projet.analytics_XXXXXXX.events_*`
WHERE
  _TABLE_SUFFIX BETWEEN
    FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 30 DAY))
    AND FORMAT_DATE('%Y%m%d', CURRENT_DATE())
GROUP BY appareil
ORDER BY utilisateurs DESC;

4. Parcours utilisateur avant achat

WITH acheteurs AS (
  SELECT DISTINCT user_pseudo_id
  FROM `votre-projet.analytics_XXXXXXX.events_*`
  WHERE event_name = 'purchase'
    AND _TABLE_SUFFIX BETWEEN
      FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 30 DAY))
      AND FORMAT_DATE('%Y%m%d', CURRENT_DATE())
)
SELECT
  (SELECT value.string_value FROM UNNEST(e.event_params)
   WHERE key = 'page_location') AS page,
  COUNT(*) AS nb_vues_par_acheteurs
FROM
  `votre-projet.analytics_XXXXXXX.events_*` e
INNER JOIN acheteurs a ON e.user_pseudo_id = a.user_pseudo_id
WHERE
  e.event_name = 'page_view'
  AND _TABLE_SUFFIX BETWEEN
    FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 30 DAY))
    AND FORMAT_DATE('%Y%m%d', CURRENT_DATE())
GROUP BY page
ORDER BY nb_vues_par_acheteurs DESC
LIMIT 20;

5. Cohortes de rétention

WITH premiere_visite AS (
  SELECT
    user_pseudo_id,
    DATE(TIMESTAMP_MICROS(MIN(event_timestamp))) AS date_premiere_visite
  FROM `votre-projet.analytics_XXXXXXX.events_*`
  WHERE _TABLE_SUFFIX BETWEEN
    FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 90 DAY))
    AND FORMAT_DATE('%Y%m%d', CURRENT_DATE())
  GROUP BY user_pseudo_id
),
visites AS (
  SELECT
    user_pseudo_id,
    DATE(TIMESTAMP_MICROS(event_timestamp)) AS date_visite
  FROM `votre-projet.analytics_XXXXXXX.events_*`
  WHERE _TABLE_SUFFIX BETWEEN
    FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 90 DAY))
    AND FORMAT_DATE('%Y%m%d', CURRENT_DATE())
)
SELECT
  DATE_TRUNC(p.date_premiere_visite, WEEK) AS semaine_cohorte,
  DATE_DIFF(v.date_visite, p.date_premiere_visite, WEEK) AS semaine_retour,
  COUNT(DISTINCT v.user_pseudo_id) AS utilisateurs
FROM premiere_visite p
JOIN visites v ON p.user_pseudo_id = v.user_pseudo_id
WHERE DATE_DIFF(v.date_visite, p.date_premiere_visite, WEEK) BETWEEN 0 AND 8
GROUP BY semaine_cohorte, semaine_retour
ORDER BY semaine_cohorte, semaine_retour;

Ces cinq requêtes couvrent 80% des besoins analytiques d'une PME e-commerce ou B2B. Enregistrez-les dans BigQuery comme requêtes sauvegardées pour les réutiliser en un clic.

// 05Looker Studio : visualiser pour décider

Les données ne servent à rien si personne ne les regarde. C'est le rôle de Looker Studio : transformer vos tables BigQuery et vos données GA4 en dashboards visuels que toute l'équipe — du dirigeant au stagiaire marketing — peut comprendre en un coup d'œil.

Créer votre premier dashboard en 30 minutes

  1. Rendez-vous sur lookerstudio.google.com et cliquez sur "Créer un rapport vide".
  2. Ajoutez une source de données. Pour commencer, connectez directement GA4 (c'est le plus simple). Vous ajouterez BigQuery comme source ensuite.
  3. Nommez votre rapport et choisissez la période par défaut (30 derniers jours).
  4. Ajoutez un sélecteur de dates en haut à droite pour que les utilisateurs puissent naviguer dans le temps.
  5. Commencez à ajouter des widgets. Je recommande de suivre la structure ci-dessous.

Les 4 widgets essentiels

Tout bon dashboard commence par ces quatre composants :

  • KPIs headline : en haut du dashboard, affichez 4 à 6 chiffres clés en gros — sessions, utilisateurs, taux de conversion, CA, panier moyen, coût d'acquisition. Avec comparaison à la période précédente (en vert si c'est mieux, rouge sinon).
  • Graphe temporel : un line chart montrant l'évolution des sessions et/ou du CA sur les 30 derniers jours. Permet de repérer instantanément les tendances et anomalies.
  • Tableau détaillé : une table avec les métriques par source/medium d'acquisition. Colonnes : source, sessions, conversions, taux de conversion, revenu. Triable et filtrable.
  • Camembert des sources : un pie chart ou donut chart montrant la répartition du trafic par canal (organic, paid, direct, referral, social, email). Visualisation rapide du mix d'acquisition.

Template dashboard e-commerce

Pour un client e-commerce, je structure le dashboard en trois pages :

  • Page 1 — Vue d'ensemble : KPIs (CA, transactions, taux de conversion, panier moyen, sessions), graphe CA vs sessions sur 30 jours, top 10 produits par revenu, répartition CA par canal.
  • Page 2 — Acquisition : performance de chaque canal (organic, paid, social, email), ROAS des campagnes Google Ads, top pages d'atterrissage, performance par device.
  • Page 3 — Comportement : taux de rebond par page, funnel de conversion (vue produit → panier → checkout → achat), pages de sortie principales.

Template dashboard marketing B2B

Pour une PME B2B orientée génération de leads :

  • Page 1 — Vue d'ensemble : KPIs (leads, MQLs, coût par lead, sessions, taux de conversion formulaire), évolution mensuelle des leads, sources de leads.
  • Page 2 — Performance du contenu : pages blog les plus vues, taux de conversion par article, temps passé sur les pages clés, parcours type avant soumission de formulaire.
  • Page 3 — Performance campagnes : résultats Google Ads et LinkedIn Ads, coût par MQL par canal, performance des landing pages.

Connecter BigQuery comme source de données

C'est là que la stack prend toute sa puissance. Au lieu de vous limiter aux métriques standard de GA4, vous pouvez créer des vues personnalisées dans BigQuery et les connecter à Looker Studio :

  1. Dans Looker Studio, cliquez sur Ajouter des données → BigQuery.
  2. Sélectionnez votre projet, puis votre dataset GA4.
  3. Vous pouvez connecter une table directement ou — mieux — créer une requête personnalisée. C'est ici que vous collez vos requêtes SQL optimisées.
  4. Looker Studio détecte automatiquement les types de colonnes. Vérifiez que les dates et les métriques sont bien typées.

L'avantage de passer par BigQuery plutôt que la connexion GA4 directe : vous n'êtes plus limité par l'échantillonnage de GA4, vous accédez aux données brutes, et vos dashboards sont plus rapides car BigQuery met en cache les résultats.

Automatiser l'envoi par email chaque lundi

Looker Studio propose une fonctionnalité native d'envoi programmé :

  1. Ouvrez votre dashboard, cliquez sur Partager → Programmer l'envoi par e-mail.
  2. Ajoutez les destinataires (le dirigeant, le responsable marketing, le commercial).
  3. Choisissez la fréquence : chaque lundi à 8h est le standard que j'utilise.
  4. Personnalisez le message d'accompagnement.

Chaque lundi matin, votre équipe reçoit un PDF du dashboard dans sa boîte mail. Plus besoin de demander "on en est où ce mois-ci ?". Si vous voulez aller encore plus loin dans l'automatisation des rapports, Python et n8n peuvent compléter le dispositif.

// 06Python : aller plus loin

Quand Python devient utile

GA4, BigQuery et Looker Studio couvrent 80% de vos besoins analytiques. Python intervient pour les 20% restants — les analyses qui nécessitent des calculs complexes, de la modélisation statistique ou de l'automatisation avancée :

  • Analyses de cohortes personnalisées : aller au-delà de la rétention simple pour analyser la valeur vie client par cohorte d'acquisition.
  • Segmentation RFM : classer vos clients par Récence, Fréquence et Montant pour personnaliser vos actions marketing.
  • Prédictions : modèles de churn (prédire quels clients vont partir), prévision de ventes, scoring de leads.
  • Nettoyage et enrichissement de données : fusionner des données de plusieurs sources (CRM, GA4, ERP) que BigQuery seul ne peut pas gérer facilement.
  • Analyses de données SEO : croiser les données Search Console avec GA4 pour identifier les opportunités de contenu. J'utilise cette approche dans mes audits SEO et GEO.

Streamlit : transformer un script Python en dashboard interactif

Streamlit est un framework Python open source qui permet de créer des applications web interactives en quelques lignes de code. C'est parfait pour les PME qui veulent des outils d'analyse sur mesure sans développer une application complète.

Un exemple concret : imaginez un outil interne où le responsable marketing peut sélectionner une période, choisir un segment client, et voir instantanément l'analyse RFM mise à jour. Avec Streamlit, ça prend une journée de développement.

Vous pouvez héberger votre app Streamlit gratuitement sur Streamlit Community Cloud ou sur un petit serveur à 5€/mois chez un hébergeur cloud.

Pandas pour l'analyse de données marketing

La bibliothèque Pandas est le couteau suisse de l'analyse de données en Python. Voici les opérations les plus courantes pour un usage marketing :

  • Fusionner des datasets : combiner vos exports BigQuery avec les données de votre CRM pour enrichir l'analyse d'acquisition.
  • Pivoter des tableaux : transformer des données brutes en tableaux croisés dynamiques (l'équivalent des TCD Excel, mais en plus puissant).
  • Calculer des métriques dérivées : LTV, CAC, ROAS, taux d'attrition — toutes les métriques business qui nécessitent des calculs sur plusieurs lignes.
  • Exporter vers Excel ou Google Sheets : pour les personnes de l'équipe qui préfèrent encore travailler dans un tableur.

Cas concret : analyse RFM pour un e-commerce

La segmentation RFM (Récence, Fréquence, Montant) est l'une des analyses les plus rentables pour un e-commerce. Elle consiste à noter chaque client sur trois critères :

  • Récence : quand a-t-il acheté pour la dernière fois ? (plus c'est récent, mieux c'est)
  • Fréquence : combien de fois a-t-il acheté ? (plus c'est souvent, mieux c'est)
  • Montant : combien a-t-il dépensé au total ? (plus c'est élevé, mieux c'est)

En croisant ces trois scores (généralement de 1 à 5), vous obtenez des segments actionnables :

  • Champions (R5-F5-M5) : vos meilleurs clients. Chouchoutez-les, offrez-leur un programme VIP.
  • À risque (R1-F4-M4) : étaient de bons clients mais n'ont pas acheté récemment. Campagne de réactivation urgente.
  • Nouveaux prometteurs (R5-F1-M2) : viennent d'acheter pour la première fois. Envoyez-leur une séquence de bienvenue pour déclencher le deuxième achat.
  • Endormis (R1-F1-M1) : n'ont acheté qu'une fois il y a longtemps. Tentez une dernière campagne de réactivation, puis nettoyez la base.

Cette analyse se fait en quelques dizaines de lignes Python avec Pandas. Les données viennent de BigQuery via la bibliothèque google-cloud-bigquery, et le résultat peut être visualisé dans Streamlit ou exporté dans un Google Sheet pour l'équipe commerciale.

// 07Comment démarrer : plan d'action en 4 semaines

Voici le plan que je suis avec mes clients PME. Quatre semaines, quelques heures par semaine, et vous avez une stack data opérationnelle.

Semaine 1 — Configurer GA4 correctement + Consent Mode

  • Auditer votre installation GA4 actuelle (ou la créer si elle n'existe pas)
  • Installer Google Tag Manager si ce n'est pas fait
  • Configurer les événements personnalisés clés (formulaires, CTA, e-commerce)
  • Marquer les conversions
  • Mettre en place le Consent Mode V2 avec une CMP compatible
  • Filtrer le trafic interne
  • Valider via le DebugView de GA4 que tout remonte correctement

Semaine 2 — Activer l'export BigQuery + premières requêtes

  • Créer un projet Google Cloud Platform (gratuit)
  • Activer l'API BigQuery
  • Connecter GA4 à BigQuery (export quotidien, serveur EU)
  • Attendre 24-48h que les premières données arrivent
  • Exécuter les 5 requêtes SQL fournies dans ce guide
  • Sauvegarder ces requêtes dans BigQuery pour un accès rapide
  • Comprendre la structure des tables GA4 dans BigQuery (events_*, events_intraday_*)

Semaine 3 — Créer le dashboard Looker Studio

  • Créer un nouveau rapport dans Looker Studio
  • Connecter GA4 comme source de données principale
  • Connecter BigQuery comme source secondaire pour les requêtes avancées
  • Construire la page "Vue d'ensemble" avec les 4 widgets essentiels
  • Ajouter les pages "Acquisition" et "Comportement" ou "Contenu"
  • Configurer les filtres et le sélecteur de dates
  • Partager le dashboard avec l'équipe

Semaine 4 — Automatiser les rapports + former l'équipe

  • Programmer l'envoi automatique du dashboard par email (chaque lundi 8h)
  • Former l'équipe à la lecture du dashboard (30 minutes suffisent)
  • Définir un rituel data : revue hebdomadaire de 15 minutes autour du dashboard
  • Documenter les KPIs et leurs définitions pour éviter les malentendus
  • Identifier les premières analyses avancées à faire avec Python (si pertinent)
  • Planifier un point mensuel pour ajuster les métriques suivies

Au bout de ces quatre semaines, vous avez un système complet qui tourne en autonomie. Les données se collectent toutes seules (GA4), se stockent toutes seules (BigQuery), se visualisent toutes seules (Looker Studio), et arrivent dans les boîtes mail toutes seules (envoi programmé). Il ne vous reste plus qu'à lire et agir.

// FAQQuestions fréquentes

Faut-il un développeur pour mettre en place cette stack ?

Non. GA4, BigQuery et Looker Studio sont entièrement configurables via leur interface graphique. La seule compétence technique utile est le SQL pour interroger BigQuery, mais les requêtes de base s'apprennent en quelques heures. Vous pouvez aussi copier-coller les requêtes fournies dans ce guide et les adapter à votre contexte. Si vous partez de zéro, un consultant peut vous accompagner sur la mise en place initiale, puis vous êtes autonome.

BigQuery est-il vraiment gratuit ?

Oui, le free tier est réel et généreux. Vous bénéficiez de 1 TB de requêtes par mois et de 10 GB de stockage sans rien payer. Pour une PME avec un trafic web classique (inférieur à 500 000 sessions/mois), c'est largement suffisant. Vous ne paierez que si vous dépassez ces seuils, ce qui arrive rarement. Et même en cas de dépassement, les tarifs restent très bas comparés aux alternatives.

Looker Studio vs Power BI, lequel choisir ?

Si votre écosystème est Google (GA4, Google Ads, Search Console, BigQuery), Looker Studio est le choix évident. Il est gratuit, les connexions sont natives, et l'interface est intuitive. Power BI est plus puissant pour les analyses complexes et les organisations déjà ancrées dans l'écosystème Microsoft (Azure, Dynamics, Excel). Mais il coûte environ 10€/utilisateur/mois en version Pro. Pour 90% des PME que j'accompagne, Looker Studio fait le travail.

Combien de temps pour avoir des insights utiles ?

Certaines métriques sont disponibles immédiatement : trafic en temps réel, pages vues, sources d'acquisition. Mais pour des analyses fiables — taux de conversion, tendances, performances par canal — comptez 2 à 4 semaines de collecte de données minimum. Les analyses de cohortes et de rétention nécessitent 2 à 3 mois de données pour être significatives. C'est pourquoi je recommande de mettre en place la stack le plus tôt possible, même si vous n'exploitez pas tout immédiatement.

// FINConclusion : votre avantage compétitif commence ici

Récapitulons. Pour moins de 50€/mois (souvent 0€), vous pouvez disposer d'une infrastructure data qui rivalise avec celle d'entreprises dix fois plus grandes que la vôtre. GA4 collecte, BigQuery stocke, Looker Studio visualise, Python analyse. Quatre outils, un écosystème cohérent, des décisions éclairées.

La différence entre une PME qui stagne et une PME qui croît, c'est souvent la capacité à mesurer ce qui fonctionne et à couper ce qui ne fonctionne pas. Cette stack vous donne cette capacité.

Mon conseil : ne cherchez pas la perfection au départ. Commencez par le plan en 4 semaines ci-dessus. Pour démarrer, notre tutoriel sur connecter GA4 à BigQuery vous guide étape par étape. Pour visualiser rapidement, consultez l'article complet sur le trio GA4 + BigQuery + Looker Studio. Et une fois votre stack en place, pensez à automatiser ses rapports GA4 pour recevoir vos métriques chaque semaine sans effort. L'important est de commencer à collecter les données maintenant, parce que chaque jour sans tracking est un jour de données perdues.

Besoin d'aide pour mettre en place votre stack data ?

J'accompagne les PME dans la mise en place de leur infrastructure data — de la configuration GA4 à la création des dashboards Looker Studio. En 4 semaines, votre stack est opérationnelle.

Réserver un appel découverte → Envoyer un message
Ted Chan, consultant Data et BI Paris

Ted Chan

Consultant freelance IA, Data et SEO/GEO basé à Paris. 4 ans d'expérience sur des projets concrets pour PME, startups et e-commerçants. Spécialisé en automatisation n8n, analytics GA4/BigQuery et référencement génératif.