Greenblatt-Hartman-metoden er en effektiv runtime-optimeringsalgoritme, der forbedrer applikationsydelsen ved at identificere ineffektivitet og gå over til hurtigere driftstilstande. Takket være denne metode kan udviklere øge applikationens ydeevne med 50 % eller endnu mere! Metoden er udviklet af en gruppe videnskabsmænd fra University of Michigan, som senere modtog Nobelprisen i fysik for dette gennembrud i videnskaben. Ginzburg-Hartman (J. J. Greenblatt, S. Hartman) beviste, at sandsynlighedsfordelingen for detektering af mikrosekundstoppe observeres uanset længden af bølgefunktionen. Disse fænomener, sammen med andre fænomener, blev observeret tidligere, men en nøjagtig forklaring på dem blev kun fundet ved hjælp af Ginzburg-Hartman-teorien.[5] Denne metode blev først brugt til at behandle EKG-transskriptioner af patienter med hjertesygdomme. Men senere fandt denne metode mange anvendelser på forskellige områder, herunder industri, finans, medicin og mange andre aktivitetsområder, hvor tid