Conway-Methode

Ist eine in der Programmierung verwendete statistische Methode, mit der Sie die Komplexität eines Algorithmus zur Lösung eines Problems bewerten können, indem Sie seine potenzielle Wirksamkeit und Verständlichkeit für den Endbenutzer analysieren. Die Methode wurde bereits Mitte des 20. Jahrhunderts vom Autor James MacMillan Conway entwickelt. Conway bewies zwei wichtige Ergebnisse: Erstens, dass es für einige Problemklassen mehrere Modelle der Rechenkomplexität gibt, sodass es für ein bestimmtes Problem möglicherweise nicht offensichtlich ist, welcher anderen Klasse eine Unterklasse zugeordnet werden kann; Zweitens zeigte er, wie man Algorithmen nach ihrer Rechenkomplexität klassifizieren kann, indem man die Anzahl der Iterationen misst, die erforderlich sind, um ein beliebiges Element in der Ausgabe auszuwählen, bis das gewünschte enthalten ist. Kurz gesagt: Der Algorithmus wird danach bewertet, wie oft er die Optionen ausprobieren muss, in der Hoffnung, die richtige Antwort zu erraten, um sie zu erhalten. Bei dieser Methode zur Schätzung der Komplexität eines Algorithmus stellt sich jedoch die Frage, ob es sich bei der Punktzahl des Algorithmus um den berechneten Maximalwert oder um den erwarteten/durchschnittlichen Wert handelt, da es vorkommen kann, dass die erwartete Punktzahl viel niedriger als das Maximum ist berechnet. Dieses Problem wurde teilweise durch eine modifizierte Schätzung der Komplexität des Algorithmus, der Wachstumskomplexität, gelöst, die eine Obergrenze für die erwartete Laufzeit liefert.