Méthode Conway

Est une méthode statistique utilisée en programmation qui permet d'évaluer la complexité d'un algorithme de résolution d'un problème, en analysant son efficacité potentielle et sa facilité de compréhension pour l'utilisateur final. La méthode a été développée par l'auteur au milieu du 20e siècle, James MacMillan Conway. Conway a prouvé deux résultats importants : premièrement, que pour certaines classes de problèmes, il existe plusieurs modèles de complexité informatique, de sorte que pour un problème donné, il peut ne pas être évident à quelle autre classe une sous-classe peut être mappée ; Deuxièmement, il a montré comment classer les algorithmes en fonction de leur complexité de calcul en mesurant le nombre d'itérations nécessaires pour sélectionner n'importe quel élément dans la sortie jusqu'à ce que celui souhaité soit inclus. En bref, l’algorithme est évalué en fonction du nombre de fois qu’il doit essayer les options dans l’espoir de deviner la bonne réponse pour l’obtenir. Cependant, avec cette méthode d'estimation de la complexité d'un algorithme, la question se pose de savoir si le score de l'algorithme est la valeur maximale calculée ou s'il s'agit de la valeur attendue/moyenne, car il peut y avoir un cas où le score attendu est bien inférieur au maximum. calculé. Ce problème a été partiellement résolu par une estimation modifiée de la complexité de l'algorithme, la complexité de croissance, qui fournit une limite supérieure sur le temps d'exécution attendu.