Återkommande

Återkommande neurala nätverk (RNN) är en typ av neurala nätverk som kan lära sig av data som erhållits tidigare. De används för att lösa problem relaterade till naturlig språkbehandling, taligenkänning, datorseende och andra områden.

Till skillnad från konventionella neurala nätverk (NN) har RNN:er en speciell arkitektur som gör att de kan komma ihåg information som tagits emot i det förflutna och använda den för att fatta beslut i framtiden. Detta uppnås genom att lägga till ett återkommande block till nätverket, som lagrar information om tidigare tillstånd i nätverket och överför den till efterföljande lager.

Ett återkommande block består av flera element, såsom minnesceller, som kan lagra information om tidigare indata. Varje element i en minnescell har tillgång till information om tidigare tillstånd och kan använda denna information för att fatta ett beslut i det aktuella tillståndet.

På grund av sin förmåga att komma ihåg information kan RNN:er bearbeta sekvenser av data, såsom sekvenser av ord i text eller tidsserier av data. De kan också användas för att förutsäga framtida värden baserat på tidigare data.

En av de främsta fördelarna med RNN är att de kan behandla data i realtid, vilket gör dem användbara för applikationer som kräver snabb databehandling, såsom taligenkänning eller ekonomisk databehandling.



En rekursiv metod är en funktion (i ett programmeringssammanhang) som kan anropas upprepade gånger. Till exempel för att lösa problem med att korsa en graf eller lösa ekvationer. Ett rekursivt program (eller rekursiva algoritmer) använder direkt eller indirekt rekursion för att lösa ett problem. Detta kan resultera i oväntat hög minnesanvändning