Nem paraméteres regresszió

A nem paraméteres regresszió a regresszió elemzésének egy olyan formája, amelyben a prediktor vagy a becslési függvény nem előre meghatározott alakot ölt, hanem az adatokból származó információknak megfelelően konstruálódik. A nem paraméteres regresszió nagyobb mintaméretet igényel, mint a parametrikus modelleken alapuló regresszió, mert az adatoknak meg kell adniuk a modell felépítését, valamint a modell becsléseit.

Általános elv

Számszerű adataink vannak, amelyeket feltételezzük, hogy korrelálunk egymással . Az egyik mennyiséget „magyarázott” változónak nevezzük, és megjegyezzük , a többit egy úgynevezett „magyarázó” változóba csoportosítjuk  ; abszolút értelemben, egy vektor ,

Vannak helyzeteink ( értékkészletek), amelyek pontfelhőt alkotnak

A regresszió a prediktor nevű függvény megtalálása

mint például a maradék

vagy a "lehető legkisebb"; ekkor úgy tekintjük, hogy a prediktor „jól leírja” az adatokat. Így írhatunk

vagy

Paraméteres regresszió esetén egy prediktorral indulunk, amelynek általános formája ismert. Ez egy olyan függvény, amelyet egy paraméterhalmaz fejez ki a . A legegyszerűbb a lineáris regresszió  :

,

és igyekszünk minimalizálni a másodfokú maradványokat

Nem paraméteres regresszió esetén nem a függvény ismert formájából indulunk ki. A legegyszerűbb eset egy görbe simítása : a kezdeti pontfelhőből meghatározunk egy új pontfelhőt kevésbé hirtelen variációkkal ( differenciálhatóan ).

Nem paraméteres regressziós módszerek

Additív regressziós modell

Az additív modell a prediktor keresésének egyszerűsítéséből áll, figyelembe véve, hogy ez egyetlen változó függvényeinek összege :

ahol a függvények „sima” (differenciálható) függvények. Az egyes funkciókat az adatok alapján becsüljük meg.

Ennek a koncepciónak vannak változatai:

Helyi regresszió

A lokális regresszió abból áll, hogy részenként végezzük a regressziót: felosztjuk a magyarázó változók terét területekre, és regressziót hajtunk végre az egyes területeken. A regresszió egy területen belül maga is paraméteres lehet, azonban a módszert továbbra is nem parametrikusnak tekintik. Gyakran végzünk helyi polinom regressziót vagy helyi spline regressziót .

A prediktor nem mindig folyamatos, és nem fortiori levezethető; csak darabonként folytonos (és darabonként differenciálható).

Becslés kernel szerint

A kernelbecslési módszer egy kernel , vagyis egy szimmetrikus és pozitív féldefinit függvény (tipikusan lineáris, polinom vagy Gauss) figyelembe vételéből áll. A prediktor ekkora alakú:

ahol az adott pontok a magyarázó változók terében vannak. Így a lokális regresszióval ellentétben mindegyik függvény átfogja a teljes teret, de egy adott pontra összpontosul . Ezért nincs probléma a folyamatossággal.

Vetítési becslés

Feltesszük az egyszerűség kedvéért, hogy már csak egy magyarázó változó , és ez , valamint a [0; 1]. Úgy véljük, egy ortonormált bázis a tér négyzetes funkciók summable [0; 1]. Véges alcsaládnak tekintjük .

A merőleges vetülete semmilyen funkciót a jelentése

a prediktor esetében megvan a közelítés

és a prediktort ezért a következők határozzák meg:

.

Lehetséges például egy Fourier-alap vagy más hullámok használata .

Megjegyzések és hivatkozások

Bibliográfia

Lásd is

Külső linkek

<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">