Retour au blog

Comment A/B tester votre waterfall publicitaire sans perdre de revenu

2 avr. 2026 · RevenueFlex Équipe

Chaque équipe de monétisation connaît cette sensation : vous êtes convaincu qu'un changement de waterfall améliorera le revenue, mais au moment de la mise en production, vous retenez votre souffle. Et si ça se retournait contre vous ? Et si le fill rate chutait ? Et si vous veniez de coûter à votre entreprise des milliers de dollars ?

Cette peur n'est pas irrationnelle — c'est la raison pour laquelle la plupart des éditeurs laissent leurs waterfalls intacts pendant des mois, laissant filer un revenue considérable. La solution n'est pas d'arrêter les changements, mais de les tester correctement avant de les valider.

Pourquoi tester un waterfall est différent

Un A/B test de waterfall n'a rien à voir avec le test de la couleur d'un bouton. Le revenue publicitaire est intrinsèquement bruité — il fluctue selon l'heure, le jour de la semaine, la saison et des dizaines d'autres facteurs. Un changement qui ressemble à une amélioration de 10 pour cent le lundi peut être entièrement expliqué par la variation hebdomadaire normale. Et contrairement aux A/B tests produit où un mauvais variant cause une expérience légèrement dégradée, un mauvais variant de waterfall peut signifier des milliers de dollars de revenue perdu par jour.

L'approche par répartition du trafic

La façon la plus sûre de tester des changements de waterfall consiste à répartir votre trafic entre la configuration actuelle (control) et le changement proposé (variant). La plupart des plateformes de mediation — dont AppLovin MAX et Unity LevelPlay — prennent en charge la segmentation de trafic qui vous permet de router un pourcentage d'utilisateurs vers une configuration différente.

Comment mettre en place un test propre

Commencez par un split 90/10 : 90 pour cent du trafic continue sur votre waterfall actuel, et 10 pour cent passe sur la nouvelle configuration. Cela limite votre risque à 10 pour cent du trafic tout en vous donnant assez de données pour détecter des différences significatives. Faites tourner le test au moins sept jours pour capturer la cyclicité hebdomadaire de la demande publicitaire.

Ce qu'il faut mesurer

Ne mesurez pas uniquement l'eCPM. Suivez ces métriques pour les deux groupes : revenue total pour mille utilisateurs actifs quotidiens (revenue per mille DAU), fill rate, eCPM moyen, impressions par session, et — point crucial — la rétention utilisateur. Un changement qui augmente l'eCPM de 15 pour cent mais fait chuter la rétention à 7 jours de 2 pour cent est un net négatif.

La méthode du groupe témoin

Pour des changements plus significatifs — comme ajouter ou retirer une source de demande, ou restructurer votre waterfall entier — utilisez un groupe holdout. Gardez 20 pour cent de votre trafic sur l'ancienne configuration de façon permanente et déployez la nouvelle configuration sur les 80 pour cent restants. Cela vous donne une base de référence persistante pour comparer, particulièrement précieuse pour des changements dont l'impact peut prendre des semaines à se matérialiser.

Déploiements incrémentaux

Une fois qu'un test montre des résultats positifs à 10 pour cent, ne passez pas immédiatement à 100 pour cent. Augmentez à 25 pour cent pendant quelques jours, puis 50, puis 75, puis 100. Chaque étape vous donne un point de contrôle pour vérifier que l'amélioration tient à des volumes plus importants et pour détecter des problèmes qui n'apparaissent qu'à l'échelle — comme un partenaire de demande qui performe bien à faible volume mais ne peut pas maintenir le fill rate avec plus de trafic.

Les éditeurs qui font croître leur revenue de manière constante ne sont pas ceux qui font les changements les plus audacieux — ce sont ceux qui testent chaque changement méthodiquement et ne valident que les gagnants.

Erreurs courantes de test

Tester trop de variables à la fois

Changez une seule chose par test. Si vous ajustez simultanément les prix plancher, ajoutez une source de demande et réorganisez la priorité du waterfall, vous ne pouvez attribuer le résultat à aucun changement individuel. Isolez les variables.

Arrêter les tests trop tôt

Le revenue publicitaire présente d'importants effets jour-de-la-semaine. Un test qui tourne du lundi au mercredi donnera une image différente d'un test qui inclut un week-end complet. Faites toujours tourner les tests au moins sept jours pleins, idéalement quatorze.

Ignorer la significativité statistique

Une amélioration de 5 pour cent sur un petit segment peut n'être que du bruit. Avant de déclarer un gagnant, assurez-vous que la différence est statistiquement significative — la plupart des plateformes de mediation fournissent des intervalles de confiance.

Automatiser le processus

Un partenaire de monétisation géré peut exécuter des tests de waterfall en continu pour votre compte, avec des systèmes automatisés qui répartissent le trafic, mesurent les résultats et promeuvent les configurations gagnantes — le tout sans exiger que votre équipe d'ingénierie mette en place et gère l'infrastructure de test. Cela transforme l'optimisation du waterfall en moteur d'amélioration continue.