Är en statistisk metod som används i programmering som låter dig utvärdera komplexiteten hos en algoritm för att lösa ett problem, med hjälp av en analys av dess potentiella effektivitet och lätthet att förstå för slutanvändaren. Metoden utvecklades av författaren redan i mitten av 1900-talet, James MacMillan Conway. Conway visade två viktiga resultat: för det första att det för vissa klasser av problem finns flera modeller av beräkningskomplexitet, så att det för ett givet problem kanske inte är uppenbart till vilken annan klass en underklass kan mappas till; för det andra visade han hur man klassificerar algoritmer efter deras beräkningskomplexitet genom att mäta antalet iterationer som krävs för att välja ett element i utdata tills den önskade ingår. Kort sagt, algoritmen betygsätts efter hur många gånger den måste prova alternativen i hopp om att gissa rätt svar för att få det. Men med denna metod för att uppskatta komplexiteten hos en algoritm, uppstår frågan om algoritmens poäng är det maximala värdet som beräknats eller är det det förväntade/genomsnittliga värdet, eftersom det kan finnas ett fall där det förväntade poängvärdet är mycket lägre än det maximala beräknad. Detta problem har delvis lösts i en modifierad uppskattning av algoritmens komplexitet, tillväxtkomplexiteten, som ger en övre gräns för den förväntade körtiden.