analiza regresji.pdf
(
131 KB
)
Pobierz
analiza regresji
Analiza regresji
1
Podstawowe pojęcia:
analiza regresji
–badanie zależności funkcyjnej między
zmiennymi losowymi X i Y
regresja
– odzwierciedlenie zależności między zmiennymi
losowymi w postaci funkcyjnej
korelacja
– stopień zależności między zmiennymi losowymi.
Miarą jest współczynnik korelacji, który pokazuje w jakim
stopniu wartości zmiennej losowej skupiają się dookoła linii
regresji.
2
Wyniki pomiarów sĄ najczĘŚciej powiĄzane ze sobĄ pewnĄ teoriĄ,
podajĄcĄ zaleŻnoŚci miĘdzy róŻnymi wielkoŚciami.
JeŻeli znamy te zaleŻnoŚci to moŻna na podstawie pomiarów
wyznaczyĆ oceny statystyczne parametrów równania.
Przy okreŚlaniu parametrów równania
posŁugujemy siĘ najczĘŚciej
metod
Ą
najmniejszych kwadratów
.
Oznaczmy zaleŻnoŚĆ funkcyjnĄ
y=
F
(x: a
0
, a
1
, ….a
n
)
gdzie a
0
, a
1
, ….a
n
– parametry funkcji
Ta zaleŻnoŚĆ moŻe mieĆ postaĆ:
y=
A
x+
B
, y=
A
e
B
x
+
C
, y=
A
x
B
e
C
x
itp.
i okreŚla siĘ jĄ jako funkcjĘ regresji
3
1
Mając dane uzyskane z pomiarów: y
1
, x
1
; y
2
, x
2
……. y
n
, x
n
ocenĘ parametrów
a
0
, a
1
, ….a
n
okreŚlamy z warunku:
suma kwadratów odchyleŃ mierzonych wartoŚci y
k
od wartoŚci obliczonej
F
(x
k
: a
0
, a
1
, … a
n
)
ma przyjmowaĆ wartoŚĆ najmniejszĄ.
[
n
]
S
=
∑
=
y
−
f
(
x
:
a
,
a
,...
a
)
2
=
min
k
k
0
1
n
k
1
RóŻniczkujĄc czĄstkowo zaleŻnoŚĆ
S
otrzymujemy ukŁad równaŃ jednorodnych
¶
S
=
0
¶
S
=
0
....
¶
S
=
0
¶
a
¶
a
¶
a
0
1
n
po rozwiązaniu, którego znajdujemy a
0
, a
1
, … a
n
.
Są to współczynniki regresji
4
REGRESJA PROSTOLINIOWA
Oszacowanie prostej regresji:
cechy Y wzglĘdem X
y
y=ax+b
y
d
I
x
x
Tworzymy funkcje F(a,b)=Σd
i
2
=min
F
(
a
,
b
)
=
∑
+
[
y
−
(
ax
b
)
]
2
i
i
Z równań
¶
F
=
0
¶
F
=
0
wyznacza się współczynniki regresji:
¶
a
¶
b
a
=
r
S
y
=
S
xy
b
=
y
−
a
x
S
S
2
x
x
5
Oszacowanie prostej regresji:
cechy X wzglĘdem Y
y
y=a’x+b’
−
y
b
'
2
y
F
(
a
'
,
b
)
=
∑
x
−
i
i
a
'
d’
I
x
x
Z równań
¶
F
=
0
¶
F
=
0
wyznacza się współczynniki regresji:
¶
a
'
¶
b
'
1
S
S
2
a
'
=
y
=
y
b
'
=
y
−
a
'
x
r
S
S
x
xy
6
2
'
Oszacowanie prostej regresji ortogonalnej
y
y=a*x+b*
(
a
*
x
+
b
*
−
y
)
y
F
(
a
*,
b
*)
=
∑
i
i
a
*
2
+
1
d*
I
x
x
to jest kwadrat odległoŚci punktu od prostej
Z równań
¶
F
¶
F
wyznacza się współczynniki regresji:
=
0
=
0
¶
a
*
¶
b
*
a
*
=
2 cov( , )
x y
b
*
=
y
−
a
*
x
(
)
2
S S
2
− +
2
S S
2
−
2
+
4 cov ( , )
2
x y
x
y
x
y
(wg: Poradnik Matematyczny cz.2, DziubiŃski, ŚwiĄtkowski, PWN 1982)
7
współczynnik korelacji liniowej |r|≤1
r
=
cov(
x
,
y
)
S
x
S
×
Wariancje:
y
N
N
1
N
N
2
∑
(
)
∑
∑
∑
S
2
=
1
x
−
x
2
=
1
x
2
−
x
2
=
N
x
2
−
x
x
N
i
N
i
2
i
i
N
=
1
i
=
1
i
=
1
i
=
1
N
N
1
N
N
2
(
)
S
2
=
1
∑
y
−
y
2
=
1
∑
y
2
−
y
2
=
N
∑
y
2
−
∑
y
y
N
i
N
i
N
2
i
i
=
1
i
=
1
i
=
1
i
=
1
Kowariancja:
∑
N
(
)(
)
∑
N
cov(
x
,
y
)
=
S
=
1
x
−
x
y
−
y
=
1
x
y
−
x
×
y
=
xy
N
i
i
N
i
i
i
=
1
i
=
1
1
∑
N
∑
N
∑
N
=
N
x
y
−
x
×
y
N
2
i
i
i
i
8
i
=
1
i
=
1
i
=
1
Przedział ufnoŚci dla prostej regresji f(x)=y=ax+b na
poziomie ufnoŚci 1-Α
Obszar ten wyznacza siĘ wg wzoru:
P{y
k
-S
k
t(α,ν) <Y(X)< y
k
-S
k
t(α,ν)}=
1-Α
9
3
2
i
i
gdzie
y
k
=ax
k
+b
x
k
– dowolna wartość zmiennej losowej X
t(α,ν) – kwantyl rozkładu t-Studenta rzędu α o ν=n-2
stopniach swobody
Y(X) –
hipotetyczna średnia wartość cechy Y dla danej cechy X
[
2
=
S
2
S
2
+
(
x
x
−
)
2
]
k
a
x
k
- wariancja dla k-tego punktu
10
wariancja wspóŁczynnika kierunkowego prostej regresji
(
n
∑
y
−
f
)
( )
(
x
)
2
S
2
=
×
i
i
=
a
n
−
2
∑ ∑
2
2
n
x
−
x
i
i
(
)
n
S
2
1
−
r
2
=
S
2
( )
=
y
×
n
∑ ∑
x
2
−
x
2
S
2
(
n
−
2
i
i
x
wariancja wyrazu wolnego prostej regresji
1
∑
x
2
∑
(
y
−
f
(
x
)
)
2
S
2
=
×
i
i
i
=
( )
b
n
−
2
∑ ∑
2
2
n
x
−
x
i
i
∑
x
2
1
(
)
=
S
2
i
=
S
2
∑
x
2
=
S
2
S
2
+
x
2
( )
∑ ∑
2
2
a
n
i
a
x
n
x
−
x
i
i
=
∑
(
y
−
f
(
x
)
)
2
S
2
i
i
(
n
−
2
)
11
REGRESJA KRZYWOLINIOWA
Wyznaczanie paraboli regresji:
Tworzymy funkcje F(a,b,c)=Σd
i
2
=min
F
(
a
,
b
,
c
)
=
∑
[
y
−
(
ax
2
+
bx
+
c
)
]
2
i
i
i
Z równań
¶
F
¶
F
¶
F
wyznacza się współczynniki regresji:
=
0
=
0
=
0
¶
a
¶
b
¶
c
a
∑
x
4
+
b
∑
x
3
+
c
∑ ∑
x
2
=
x
2
y
i
i
i
i
i
a
∑
x
3
+
b
∑
x
2
+
c
∑ ∑
x
=
x
y
i
i
i
i
i
a
∑
x
2
+
b
∑
x
+
c
×
n
=
∑
y
i
i
i
12
4
S
Wprowadzamy zmienne pomocnicze:
A
=
∑
−
x
2
1
( )
;
∑
x
2
B
=
∑
−
x
2
y
1
( )
( )
;
∑
x
2
∑
y
i
n
i
i
i
n
i
i
G
=
∑
x
3
−
1
( )
( )
;
∑
x
∑
x
2
i
n
i
i
D
=
∑
−
x
y
1
( )( )
;
∑
x
∑
y
i
i
n
i
i
E
=
∑
−
x
4
1
( )
;
∑
x
2
2
i
n
i
13
parametry paraboli regresji:
a
=
AB
−
GD
;
b
=
DE
−
BG
;
AE
−
G
AE
−
G
c
=
1
( ) ( )
( )
;
∑
y
−
b
1
∑
x
−
a
1
∑
x
2
n
i
n
i
n
i
WspóŁczynnik zgodnoŚci (im mniejszy tym lepsza zgodnoŚĆ)
[
∑
y
−
f
(
x
)
]
2
J
2
=
i
i
;
gdzie
0
£
J
2
£
1
(
)
∑
y
−
y
2
i
WspóŁczynnik korelacji krzywoliniowej
R
=
1 J
−
2
14
Wyznaczanie hiperboli regresji dla funkcji homograficznej:
y
=
f
(
x
)
=
cx
+
d
;
ax
+
b
x
−
x
StosujĄc podstawienie:
X
= ;
x
Y
=
k
y
−
y
k
gdzie
(
x
k
y
,
k
)
⇒
dowolny punkt ze zbioru punktów (x
i
, y
i
)
otrzymujemy nowy zbiór punktów (
X
i
, Y
i
),
dla którego oszacujemy parametry prostej regresji
Y
=
A
×
X
+
B
c
d
x
−
x
k
=
A
×
x
+
B
⇒
y
=
(
Ay
k
+
1
x
+
By
k
−
x
k
;
y
−
y
Ax
+
B
k
a
b
15
5
Plik z chomika:
albi1990
Inne pliki z tego folderu:
PEiN.pdf
(1642 KB)
przyklad.pdf
(1086 KB)
rozklady.pdf
(763 KB)
Zastosowanie Weibulla.pdf
(600 KB)
wprowadzenie.pdf
(368 KB)
Inne foldery tego chomika:
metody komputerowe
Zgłoś jeśli
naruszono regulamin