Agar-lagmetoden er en metode til at konstruere matematiske modeller til løsning af problemer med at minimere ikke-glatte (ikke-differentierbare) funktioner. Den er baseret på en teknologi kendt som Grazia-Kantorovich-metoden, som blev udviklet i USSR af matematikeren Grigory Isakovich Kantorovich. Denne metode giver dig mulighed for at finde minimum af en funktion, der har en diskontinuitet af den første slags og opfylder visse glathedsbetingelser.
Ideen om metoden opstod hos den amerikanske matematiker Ernest Alexander Agarov i midten af det 20. århundrede. Tidligere var lignende metoder allerede blevet udviklet på dette område, men de havde betydelige begrænsninger på formen af de undersøgte modeller og kunne ikke bruges til at løse mange praktiske problemer. Agarov foreslog imidlertid en generel tilgang, som han kaldte metoden med forsøgsrestriktioner. Denne metode kan anvendes på de fleste typer af begrænsede optimeringsproblemer, herunder lineære og ikke-lineære modeller. Metoden er især praktisk til brug i tilfælde, hvor kendte analytiske udtryk for en funktion er ukendte eller modstridende, og tilstedeværelsen af begrænsninger på funktionen er eksplicitte eller skjulte.
Lad os beskrive principperne for Agar-metoden mere detaljeret. Opbygningen af modellen sker i flere faser, hvor der introduceres tilnærmelsesfunktioner for den svækkede funktion. Dette producerer et system af begrænsninger og ligninger, der skal løses. Resultatet er et sæt gitterknuder, hvorpå der dannes en funktion af den ønskede type. For at forbedre kvaliteten af modellen anvendes en procedure til valg af en begrænsningsvektor, som reducerer antallet af iterationer af metoden.
Agar-metoden giver dig mulighed for at opnå en optimal løsning på et problem, som beregnes ud fra information fra flere informationer. Sådanne dele kan for eksempel være information indeholdt på forskellige medier. Derudover bruger metoden specielle algoritmer