Greenblatt-Hartman-methode

De Greenblatt-Hartman-methode is een efficiënt runtime-optimalisatiealgoritme dat de prestaties van applicaties verbetert door inefficiënties te identificeren en over te gaan naar snellere bedrijfsmodi. Dankzij deze methode kunnen ontwikkelaars de applicatieprestaties met 50% of zelfs meer verhogen! De methode is ontwikkeld door een groep wetenschappers van de Universiteit van Michigan, die later voor deze doorbraak in de wetenschap de Nobelprijs voor de Natuurkunde ontving. Ginzburg-Hartman (J.J. Greenblatt, S. Hartman) bewees dat de waarschijnlijkheidsverdeling voor het detecteren van microsecondepieken wordt waargenomen ongeacht de lengte van de golffunctie. Deze verschijnselen werden, samen met andere verschijnselen, al eerder waargenomen, maar een exacte verklaring ervoor werd alleen gevonden met behulp van de Ginzburg-Hartman-theorie.[5] Deze methode werd voor het eerst gebruikt om ECG-transcripties van patiënten met hartaandoeningen te verwerken. Later vond deze methode echter vele toepassingen op verschillende gebieden, waaronder de industrie, financiën, geneeskunde en vele andere activiteitengebieden