A/B-testen zijn de gouden standaard voor experimenten. Het is bedoeld om bedrijven te helpen snellere, betere, datagestuurde beslissingen te nemen. Maar al te vaak gebeurt het tegenovergestelde. De bijeenkomst begint met optimisme: een nieuw prijsidee, advertentie-indeling of aanmeldingsscherm wordt onderworpen aan een A/B-test. Na weken wachten komen analisten terug met p-waarden, 95% betrouwbaarheidslimieten en een bekende conclusie: “We moeten wachten op meer gegevens. We hebben nog niet genoeg bewijs, en het is statistisch niet significant.”



