Conway-metoden

Er en statistisk metode som brukes i programmering som lar deg evaluere kompleksiteten til en algoritme for å løse et problem, ved å bruke en analyse av dens potensielle effektivitet og enkle forståelse for sluttbrukeren. Metoden ble utviklet av forfatteren tilbake på midten av 1900-tallet, James MacMillan Conway. Conway beviste to viktige resultater: For det første at for noen klasser av problemer er det flere modeller for beregningskompleksitet, slik at det for et gitt problem kanskje ikke er åpenbart til hvilken annen klasse en underklasse kan tilordnes; for det andre viste han hvordan man klassifiserer algoritmer etter deres beregningsmessige kompleksitet ved å måle antall iterasjoner det tar å velge et hvilket som helst element i utdataene til den ønskede er inkludert. Kort sagt er algoritmen vurdert etter hvor mange ganger den må prøve alternativene i håp om å gjette riktig svar for å få det. Men med denne metoden for å estimere kompleksiteten til en algoritme, oppstår spørsmålet om algoritmens poengsum er den beregnede maksimalverdien eller er den forventet/gjennomsnittlig verdi, siden det kan være et tilfelle hvor forventet poengsum er mye lavere enn maksimumsverdien. regnet ut. Dette problemet er delvis løst i et modifisert estimat av algoritmens kompleksitet, vekstkompleksiteten, som gir en øvre grense for forventet kjøretid.