Metoda Greenblatta-Hartmana to wydajny algorytm optymalizacji czasu działania, który poprawia wydajność aplikacji poprzez identyfikowanie nieefektywności i przechodzenie do szybszych trybów pracy. Dzięki tej metodzie programiści mogą zwiększyć wydajność aplikacji o 50%, a nawet więcej! Metodę opracowała grupa naukowców z Uniwersytetu Michigan, który za ten przełom w nauce otrzymał później Nagrodę Nobla w dziedzinie fizyki. Ginzburg-Hartman (J. J. Greenblatt, S. Hartman) udowodnił, że rozkład prawdopodobieństwa detekcji pików mikrosekundowych obserwuje się niezależnie od długości funkcji falowej. Zjawiska te, podobnie jak inne, obserwowano już wcześniej, ale ich dokładne wyjaśnienie znaleziono dopiero za pomocą teorii Ginzburga-Hartmana.[5] Metodę tę po raz pierwszy zastosowano do przetwarzania transkryptów EKG pacjentów z chorobami serca. Jednak później metoda ta znalazła wiele zastosowań w różnych dziedzinach, m.in. w przemyśle, finansach, medycynie i wielu innych obszarach działalności, gdzie czas