Broyden-Fletcher-Goldfarb-Shanno módszer

A matematikában a Broyden-Fletcher-Goldfarb-Shanno ( BFGS ) módszer egy módszer egy nemlineáris optimalizálási probléma korlátok nélküli megoldására .

A BFGS módszer olyan megoldás, amelyet gyakran használnak, ha az algoritmust leereszkedési irányokkal kívánja meg .

Ennek a módszernek az az alapgondolata , hogy a különböző egymást követő gradiensek elemzésével elkerülhető legyen a Hessian-mátrix kifejezett felépítése, és ehelyett a minimalizálandó függvény második deriváltjának inverzének közelítése épüljön fel . Ez a közelítés a származékok a függvény vezet egy kvázi-Newton módszer (egy változata a Newton-módszer ), hogy megtalálja a minimális a paraméter térben.

A Hessian-mátrixot nem kell újratervezni az algoritmus minden egyes iterációjánál. A módszer azonban azt feltételezi, hogy a függvény lokálisan megközelíthető egy másodfokú korlátozott kiterjesztéssel az optimum körül.

Alapján

A cél az, hogy minimalizáljuk , és és egy valós értékű differenciálható függvény.

Az ereszkedés irányának keresését a szakaszban a következő egyenlet megoldása adja meg, egyenértékű Newton egyenletével:

ahol a Hessian-mátrix közelítése a lépésben , és a grádiens értéke a .

Ezután az irányban lineáris keresést használunk a következő pont megtalálásához .

Ahelyett, hogy a hesseni mátrixhoz hasonlóan kellene kiszámítani a pontot , az iteráció során megközelített hessianust két mátrix hozzáadásával frissítik:

hol és hol vannak az 1. rangú szimmetrikus mátrixok, de eltérő alapokkal rendelkeznek. Egy mátrix akkor és csak akkor szimmetrikus az 1. rangban, ha formába írható , hol van egy oszlopmátrix és egy skalár.

Ekvivalens módon, és készítsen egy rangsorolási 2. mátrixot, amely robusztus a léptékproblémák szempontjából, amelyek gyakran büntetik a módszerek gradiensét (mint a Broyden (in) módszer , a sokdimenziós analóg a secant módszer ). A frissítés feltételei:  

.

Algoritmus

Egy kezdeti értékből és egy hozzávetőleges Hessian-mátrixból a következő iterációkat ismételjük, amíg össze nem konvergál a megoldáshoz.

  1. Keresse megoldása: .
  2. Végezzen lineáris keresést az optimális hangmagasság megtalálásához az 1. részben megadott irányban, majd frissítse .
  3. .
  4. .

A Funkció az a funkció, amelyet minimalizálni kell. A konvergencia tesztelhető a gradiens norma kiszámításával . A gyakorlatban ezzel inicializálható , és az első iteráció ekvivalens lesz a gradiens algoritmuséval , de a többi iteráció a hesseni közelítésnek köszönhetően egyre jobban finomítja .

Mi lehet számítani a megbízhatósági intervalluma a megoldást a fordítottja az utolsó hesseni mátrixban.

Bibliográfia

Lásd is

Hivatkozások

<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">