Tilbake til bloggen

Slik A/B-tester du ad-waterfallet ditt uten å tape inntekter

2. apr. 2026 · RevenueFlex Team

Hvert monetiseringsteam kjenner følelsen: du er overbevist om at en waterfall-endring vil forbedre inntektene, men i det øyeblikket du pusher den live, holder du pusten. Hva om det slår tilbake? Hva om fill rate faller? Hva om du akkurat har kostet selskapet ditt tusenvis av dollar i tiden det tar å oppdage det og rulle tilbake?

Denne frykten er ikke irrasjonell — det er grunnen til at de fleste utgivere lar waterfall-konfigurasjonene sine stå urørt i måneder av gangen, og dermed lar betydelige inntekter ligge igjen på bordet. Løsningen er ikke å slutte å gjøre endringer. Det er å teste dem ordentlig før du forplikter deg.

Hvorfor waterfall-testing er annerledes

Å A/B-teste et waterfall er ikke som å teste en knappfarge eller en onboarding-flyt. Annonseinntekter er iboende støyete — de varierer med tidspunkt på dagen, ukedag, sesong og dusinvis av andre faktorer. En endring som ser ut som en forbedring på 10 prosent på en mandag, kan fullstendig forklares av normal ukentlig variasjon. Og i motsetning til produkt-A/B-tester der en dårlig variant gir en litt dårligere brukeropplevelse, kan en dårlig waterfall-variant bety tusenvis av dollar i tapte inntekter per dag.

Trafikksplitt-tilnærmingen

Den tryggeste måten å teste waterfall-endringer på er å splitte trafikken mellom den nåværende konfigurasjonen (control) og den foreslåtte endringen (variant). De fleste mediation-plattformer — inkludert AppLovin MAX og Unity LevelPlay — støtter trafikksegmentering som lar deg rute en andel av brukerne til en annen waterfall-konfigurasjon.

Slik setter du opp en ren test

Start med en 90/10-splitt: 90 prosent av trafikken fortsetter på ditt nåværende waterfall, og 10 prosent får den nye konfigurasjonen. Dette begrenser nedsiderisikoen din til 10 prosent av trafikken samtidig som du får nok data til å oppdage meningsfulle forskjeller. Kjør testen i minst syv dager for å fange opp ukentlig syklisitet i annonseetterspørselen.

Hva du skal måle

Ikke bare mål eCPM. Følg disse metrikene for begge grupper: total inntekt per tusen daglige aktive brukere (revenue per mille DAU), fill rate, gjennomsnittlig eCPM, visninger per økt og — kritisk — brukerretensjon. En waterfall-endring som løfter eCPM med 15 prosent, men øker annonselastetiden og senker 7-dagers retensjon med 2 prosent, er netto negativ.

Holdout-gruppe-metoden

For mer betydelige endringer — som å legge til eller fjerne en demand source, eller omstrukturere hele waterfallet ditt — bruk en holdout-gruppe. Hold 20 prosent av trafikken din permanent (eller så lenge testen varer) på den gamle konfigurasjonen og rull ut den nye konfigurasjonen til de resterende 80 prosent. Dette gir deg en vedvarende baseline å sammenligne mot, som er spesielt verdifullt for endringer der effekten kan ta uker å materialisere seg fullt ut.

Inkrementelle utrullinger

Når en test viser positive resultater på 10 prosent, ikke push umiddelbart til 100 prosent. Øk til 25 prosent i et par dager til, deretter 50, så 75, så 100. Hvert trinn gir deg et sjekkpunkt for å verifisere at forbedringen holder seg ved høyere trafikkvolum og for å fange opp problemer som bare dukker opp ved skala — som en demand-partner som presterer godt ved lavt volum, men ikke klarer å opprettholde fill rate når den får mer trafikk.

Utgiverne som konsekvent vokser annonseinntektene sine, er ikke de som gjør de dristigste endringene — det er de som tester hver endring metodisk og kun forplikter seg til vinnere. Små, validerte forbedringer bygger seg opp til massive gevinster over tid.

Vanlige testfeil

Teste for mange variabler på en gang

Endre én ting per test. Hvis du samtidig justerer floor prices, legger til en ny demand source og omorganiserer waterfall-prioriteten, kan du ikke tilskrive resultatet til noen enkelt endring. Isoler variabler.

Avslutte tester for tidlig

Annonseinntekter har betydelige ukedagseffekter. En test som kjøres fra mandag til onsdag, gir deg et annet bilde enn en som inkluderer en hel helg. Kjør alltid tester i minst syv hele dager, ideelt fjorten.

Ignorere statistisk signifikans

En inntektsforbedring på 5 prosent på et lite trafikksegment kan være støy. Før du erklærer en vinner, sørg for at forskjellen er statistisk signifikant — de fleste mediation-plattformer gir confidence intervals, eller du kan bruke standard statistiske verktøy for å verifisere.

Automatisere prosessen

En managed monetiseringspartner kan kjøre kontinuerlige waterfall-tester på dine vegne, ved å bruke automatiserte systemer som splitter trafikk, måler resultater og fremmer vinnende konfigurasjoner — alt uten å kreve at ingeniørteamet ditt setter opp og administrerer testinfrastruktur. Dette gjør waterfall-optimalisering fra en sporadisk manuell prosess til en kontinuerlig forbedringsmotor.