REGRETSION MATEMATIK MODELLAR. TAJRIBA NATIJALARINI QAYTA ISHLASH. KICHIK KVADRATLAR USULI
Yuklangan vaqt
2024-04-20
Yuklab olishlar soni
1
Sahifalar soni
9
Faytl hajmi
40,5 KB
Ilmiybaza.uz
REGRETSION MATEMATIK MODELLAR. TAJRIBA NATIJALARINI
QAYTA ISHLASH. KICHIK KVADRATLAR USULI
Tabiat va jamiyat qonunlarini bilishda, fan, texnika hamda texnologiyalarga
oid yangiliklar yaratish, borlarini takomillashtirishda turli xil kuzatishlar, o‘lchashlar
va sinovlar, ya’ni tajribalar ma’lum vaqt davomida ko‘p marta takrorlanib bajariladi.
Masalan, koinot jismlarini kuzatish natijasida ularning harakat traektoriyalari
o‘rganiladi, ushbu traektoriya bo‘yicha jismning bir marta to‘liq aylanib chikish
davri va boshqa ko‘plab ma’lumotlar aniqlanadi. Yig‘ilgan ma’lumotlarni qayta
ishlab tahlil qilish orqali ana shu jism haqida to‘laroq tasavvurga ega bo‘lish, yangi
planetalar kashf etish kabi imkoniyatlar yuzaga keladi.
Paxtaning yuqori ko‘rsatkichlarga ega bo‘lgan yangi navini yaratishda
ajratilgan er maydonida ko‘p yillik tajriba va kuzatishlar olib boriladi.
Yigirish dastgohini takomillashtirishda ipning uzilishiga sabab bo‘luvchi
omillar tajriba va sonli hisoblar orqali o‘rganiladi. Dastgoh qismlarining harakatini
ifodalovchi tenglamalar (matematik model) tarkibida zaruriy o‘zgartirishlar amalga
oshiriladi. Bunday misollarni ko‘plab keltirish mumkin.
Ammo bu yerda shu narsaga e’tibor berish lozimki, kuzatish, o‘lchash va
sinovlar o‘rganilayotgan jarayon yoki hodisalar haqida to‘liq tasavvurga ega bo‘lish
uchun yetarli emas. Chunki ular qandaydir vaqt oralig‘ida ma’lum sondagina amalga
oshiriladigan diskret holatlar haqida ma’lumot bera oladi. Shuning uchun ham
kuzatish, o‘lchash va sinovlarda olingan ma’lumotlarni tasdiklaydigan nazariy
izlanishlar olib borish zarur. Boshqacha aytganda, diskretlik holatdan uzluksiz
holatga o‘tishni ta’minlaydigan, o‘rganilayotgan jarayon yoki hodisalarning
matematik modellarini yaratish muhim amaliy ahamiyatga egadir.
Shuning uchun o‘rganilayotgan voqea, hodisalar, parametrlar o‘rtasidagi
bog‘lanishning
yaqinligi
(zichligi)ni
baholovchi
sonli
ko‘rsatkichlarni
(korrelyasiya’ni) va bu bog‘lanishlarning ifodalash shaklini (regressiya’ni) topish
Ilmiybaza.uz
tajriba natijasida olingan ma’lumotlarni qayta ishlashning asosiy maqsadlaridan biri
hisoblanadi.
Matematik statistikada korrelyasion bog‘lanishning yaqinlik o‘lchovi son
miqdorini aniqlashning turli xil usullari mavjud. Masalan, chiziqli bog‘lanishlar
uchun korrelyasiya koeffitsiyentini, nochiziq bog‘lanishlar uchun esa korrelyasiya
indeksini topish ana shu usullardan hisoblanadi. Bog‘lanish shakli o‘rganilayotgan
belgining (bog‘lik o‘zgaruvchi u ning natijaviy belgisi) faktor-belgi (erkli
o‘zgaruvchi x ning faktor belgisi) o‘zgarishi bilan o‘zgarish qonuniyati: chiziqli,
algebraik yoki transsendent ko‘phad, logarifmik, eksponensial va boshqa
ko‘rinishlarning birida bo‘lishi mumkinligini bildiradi. Ularni regressiya
tenglamalari deb ham ataladi va o‘rganilayotgan jarayonning sodda matematik
(statistik) modeli sifatida qabul qilinadi.
Matematikada bunday funksiyalar qurishning kichik kvadratlar, «tortilgan ip»,
«o‘rtalar» (metod srednix), interpolyasiyalash, splayin interpolyasiyalash ko‘p
sondagi usullari yaratilgan.
Ushbu uslubiy qo‘llanmada regressiya tenglamalarini qurishda ko‘p
qo‘llaniladigan klassik usullardan biri «Kichik kvadratlar» usuli haqida asosiy
tushunchalar bayon etilgan.
Hozirgi kunda eng ommalashgan MathCAD va MS Excel dasturlari vositasida
regressiya tenglamasi koeffitsiyentlarini topish algoritmlari ham nazariy, ham
misollar orqali keltirilgan.
Bulardan tashqari mustaqil bajarish uchun topshiriqlar berilgan.
Kichik kvadratlar usuli
Regressiya tenglamasini qurishda eng ko‘p qo‘llaniladigan klassik usullardan
biri kichik kvadratlar usulidir. Kichik kvadratlar usuli 1806 yilda fransuz matematigi
A. Lejandr tomonidan e’lon qilingan. Undan bexabar 1808 yil nemis matematigi K.
Gauss osmon jismlari orbitasini aniqlash bilan bog‘lik bo‘lgan qator o‘lchashlar
natijalarini qayta ishlashda o‘zi kashf etgan kichik kvadratlar usulini qo‘llagan.
Ma’lumki, amaliyotda ikkita o‘zgaruvchi 𝑥 va 𝑦 miqdorlar orasidagi
bog‘lanish shu qaralayotgan jarayonga mos o‘lchash, kuzatish yoki sinovlar orqali,
ya’ni tajriba natijalari asosida aniqlanadi. Tajriba natijalari esa odatda jadval yoki
grafiklar ko‘rinishda beriladi:
Ilmiybaza.uz
𝑥
𝑥1
𝑥2
⋯
𝑥𝑛
𝑦
𝑦1
𝑦2
⋯
𝑦𝑛
Bu yerda 𝑛 - o‘lchashlar yoki kuzatishlar soni; 𝑥𝑖, 𝑦𝑖 lar mos ravishda 𝑖 - faktor
va natijaviy belgilarning sonli qiymatlari; (𝑥1, 𝑦1), (𝑥2, 𝑦2), ⋯, (𝑥𝑛, 𝑦𝑛) juftliklarni
tajriba nuqtalari deb qarash mumkin.
Olingan jadval ko‘rinishdagi ma’lumotlar yoki ular asosida qurilgan grafiklar
asosida qaralayotgan jarayon (𝑥 va 𝑦 orasidagi bog‘lanish) qanday qonuniyatga
bo‘ysunishi haqida vizual xulosaga ega bo‘lamiz. Agar 𝑥 va 𝑦 miqdorlar orasidagi
bog‘lanish chiziqli qonuniyatga ega bo‘lsa, regressiya tenglamasi
𝑦 = 𝑎1 ∙ 𝑥 + 𝑎0 = 𝑓(𝑥, 𝑎0, 𝑎1)
(1)
ko‘rinishda, chiziqsiz bo‘lsa masalan, parabolik qonuniyatga bo‘ysunsa, regressiya
tenglamasi
𝑦 = 𝑎2 ∙ 𝑥2 + 𝑎1 ∙ 𝑥 + 𝑎0 = 𝑓(𝑥, 𝑎0, 𝑎1, 𝑎2)
(2)
ko‘rinishda, umuman olganda x va u orasidagi bog‘lanish 𝑚 - darajali algebraik
ko‘phad ko‘rinishda bo‘lsa, regressiya tenglamasi
𝑦 = 𝑎𝑚 ∙ 𝑥𝑚 + 𝑎𝑚−1 ∙ 𝑥𝑚−1 + ⋯ + 𝑎1 ∙ 𝑥 + 𝑎0 = 𝑓(𝑥, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)
(3)
ko‘rinishda qidiriladi. Bulardan tashqari 𝑥 va 𝑦 miqdorlar orasidagi bog‘lanishlar
yuqorida aytib o‘tilganidek eksponensial, logarifmik, trigonometrik hamda turli xil
funksiyalarning chiziqli birikmalari ko‘rinish-da bo‘lishi mumkin. Masalan (4)
tenglama ko‘rinishda.
𝑦 = 𝑎0 ∙ 𝑓0(𝑥) + 𝑎1 ∙ 𝑓1(𝑥) + ⋯ + 𝑎𝑚 ∙ 𝑓𝑚(𝑥) = ∑ 𝑎𝑖 ∙ 𝑓𝑖(𝑥)
𝑚
𝑖=0
(4)
Bu yerda 𝑓𝑖(𝑥) regressiya tenglamasida ishtirok etishi aniqlangan (berilgan) 𝑖 -
funksiya’ning analitik ko‘rinishi. Demak, regressiya tenglamasini qurish masalasi,
tajriba orqali aniqlab bo‘lmaydigan 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 o‘zgarmaslarni (regressiya
tenglamasi koeffitsiyentlarini) sonli qiymatlarini topish masalasiga kelar ekan.
Faraz qilaylik, erkli o‘zgaruvchi 𝑥 va 𝑚 + 1 ta 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 o‘zgarmaslarga
bog‘lik bo‘lgan quyidagi funksiya berilagn bo‘lsin (regressiya tenglamasi):
𝑦 = 𝑓(𝑥, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)
(5)
Ilmiybaza.uz
Birinchi qaraganda (5) tenglikda x va u lar o‘rniga tajriba nuqtalari
koordinatalari 𝑥𝑖 va 𝑦𝑖 larni qo‘yib, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 o‘zgarmaslarga nisbatan hosil
qilingan quyidagi n - ta tenglamalar sistemasini
{
𝑓(𝑥1, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚) = 𝑦1
𝑓(𝑥2, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚) = 𝑦2
⋯
𝑓(𝑥𝑛, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚) = 𝑦𝑛
(6)
yechib 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 sonlarni topish orqali ko‘zlangan maqsadga etish mumkindek
tuyuladi. Ammo o‘lchashlar yoki kuzatishlar ma’lum xatoliklar bilan amalga
oshiriladi. Absolyut aniq bo‘lgan o‘lchash yoki kuzatish amaliy jixatdan mumkin
emas.
Agar 𝑥𝑖 va 𝑦𝑖 qiymatlar tajriba orqali aniq (xatosiz) topilganda edi,
qidirilayotgan parametrlarni topish uchun 𝑚 + 1 ta tajriba o‘tkazishning o‘zi kifoya
edi. Aslida ular xatolikka ega bo‘lgani uchun 𝑚 + 1 marta o‘lchash yoki kuzatish
orqali 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 larning haqikiy (aniq) qiymatlarini topib bo‘lmaydi. Buning
uchun odatda yetarlicha ko‘p marta ( 𝑛 > 𝑚 + 1) tajriba o‘tkazish lozim, u holda (6)
sistemada tenglamalar soni noma’lumlar sonidan ko‘p bo‘lib, hosil bo‘lgan sistema
birgalikda bo‘lmaydi (𝑛 < 𝑚 + 1 bo‘lganda esa (6) sistema cheksiz ko‘p yechimga
ega bo‘lar edi). Bular esa (6) sistemani to‘g‘ridan-to‘g‘ri yechib, maqsadga erishib
bo‘lmasligini bildiradi. Demak, ko‘zlangan maqsadga erishish uchun boshqacharok
yo‘l tutish lozim. Bu yo‘llardan biri kichik kvadratlar usulidir.
O‘lchash yoki kuzatish orqali olingan natijaviy 𝑦𝑖 qiymat (son) bilan nazariy
olingan (5) ko‘rinishdagi regressiya tenglamasining 𝑥𝑖 dagi f(xi, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)
qiymati bir-biridan farq qiladi. Har bir tajriba nuqtasiga mos kelgan ushbu farqlarni
(xatoliklarni) (6) tenglamalardan quyidagicha aniqlash mumkin:
∆1= 𝑦1 − 𝑓(𝑥1, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)
∆2= 𝑦2 − 𝑓(𝑥2, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)
⋯
∆𝑛= 𝑦𝑛 − 𝑓(𝑥𝑛, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)
(7)
yoki ∆𝑖= 𝑦𝑖 − 𝑓(𝑥𝑖, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚), (𝑖 = 1, 2, ⋯ , 𝑛)
(8)
Kichik kvadratlar usulining asl moxiyati ana shu xatoliklar kvadratlarining
yigindisi eng kichik bo‘lish sharti asosida 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 noma’lumlarning son
Ilmiybaza.uz
qiymatlarini topishdan iborat va uni Lejandr prinsipi deb ataladi. Ushbu prinsip
matematik tilda quyidagicha yoziladi:
𝑠 = ∑ ∆𝑖
2
𝑛
𝑖=1
= ∑(𝑦𝑖 − 𝑓(𝑥𝑖, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚))
2
𝑛
𝑖=1
→ min (9)
Umumiy holda berilgan (5) ko‘rinishdagi regressiya tenglamasini (9) shart
asosida topish «o‘rtacha» eng yaxshi yaqinlashish deb ataladi.
Boshqacha aytganda nazariy olingan regressiya tenglamasining qiymatlari
tajribada olingan 𝑦𝑖 qiymatlarga «o‘rtacha eng yaqin» keladi deb baholanadi.Tajriba
nuqtalarida 𝑓(𝑥𝑖, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚) va 𝑦𝑖 lar orasidagi farqning o‘lchovi sifatida
n
i
m
i
i
a
a
f x a
y
s
1
2
1
0
)
,
,
,
,
(
qiymat qaraladi.
Tajriba nuqtalarining soni qancha ko‘p bo‘lsa (𝑛 > 𝑚 + 1) Lejandr prinsipi
asosida topilgan 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 o‘zgarmaslarning qiymatlari shunchalik aniq
(xatosiz) bo‘ladi.
Topilishi lozim bo‘lgan 𝑎0, 𝑎1, ⋯ , 𝑎𝑚 noma’lumlarning sonli qiymatlari t+1
ta argumentga bog‘lik bo‘lgan 𝑠 = 𝑠(𝑎0, 𝑎1, ⋯ , 𝑎𝑚) funksiya’ning ekstremumga
ega bo‘lishini zaruriy shartlaridan iborat quyidagi 𝑚 + 1 ta tenglamalar sistemasini
yechish orqali topiladi.
{
𝜕𝑠
𝜕𝑎0
= 0,
𝜕𝑠
𝜕𝑎1
= 0,
⋯
𝜕𝑠
𝜕𝑎𝑚
= 0.
(10)
Masalan (1), (2) va (3) ko‘rinishlarda regressiya tenglamalari uchun (10)
sistema mos ravishda quyidagi ko‘rinishlarda ifodalanadi:
{
− 1
2 ∙ 𝜕𝑠
𝜕𝑎0
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖)]
𝑛
𝑖=1
= 0,
− 1
2 ∙ 𝜕𝑠
𝜕𝑎1
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖)] ∙ 𝑥𝑖
𝑛
𝑖=1
= 0.
(11)
Ilmiybaza.uz
{
− 1
2 ∙ 𝜕𝑠
𝜕𝑎0
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖 + 𝑎2 ∙ 𝑥𝑖
2)]
𝑛
𝑖=1
= 0,
− 1
2 ∙ 𝜕𝑠
𝜕𝑎1
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖 + 𝑎2 ∙ 𝑥𝑖
2)] ∙ 𝑥𝑖
𝑛
𝑖=1
= 0,
− 1
2 ∙ 𝜕𝑠
𝜕𝑎2
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖 + 𝑎2 ∙ 𝑥𝑖
2)] ∙ 𝑥𝑖
2
𝑛
𝑖=1
= 0.
(12)
{
− 1
2 ∙ 𝜕𝑠
𝜕𝑎0
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖 + ⋯ + 𝑎𝑚 ∙ 𝑥𝑖
𝑚)]
𝑛
𝑖=1
= 0,
− 1
2 ∙ 𝜕𝑠
𝜕𝑎1
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖 + ⋯ + 𝑎𝑚 ∙ 𝑥𝑖
𝑚)] ∙ 𝑥𝑖
𝑛
𝑖=1
= 0,
⋯
− 1
2 ∙ 𝜕𝑠
𝜕𝑎𝑚
= ∑[𝑦𝑖 − (𝑎0 + 𝑎1 ∙ 𝑥𝑖 + ⋯ + 𝑎𝑚 ∙ 𝑥𝑖
𝑚)] ∙ 𝑥𝑖
𝑚
𝑛
𝑖=1
= 0.
(13)
Noma’lum koeffitsiyentlar esa mos ravishda quyidagi sistemalarni yechish
orqali aniqlanadi:
{
𝑛𝑎0 + (∑ 𝑥𝑖
𝑛
𝑖=1
) 𝑎1 = ∑ 𝑦𝑖
𝑛
𝑖=1
,
(∑ 𝑥𝑖
𝑛
𝑖=1
) 𝑎0 + (∑ 𝑥𝑖
2
𝑛
𝑖=1
) 𝑎1 = ∑(𝑥𝑖𝑦𝑖)
𝑛
𝑖=1
.
(14)
{
𝑛𝑎0 + (∑ 𝑥𝑖
𝑛
𝑖=1
) 𝑎1 + (∑ 𝑥𝑖
2
𝑛
𝑖=1
) 𝑎2 = ∑ 𝑦𝑖
𝑛
𝑖=1
,
(∑ 𝑥𝑖
𝑛
𝑖=1
) 𝑎0 + (∑ 𝑥𝑖
2
𝑛
𝑖=1
) 𝑎1 + (∑ 𝑥𝑖
3
𝑛
𝑖=1
) 𝑎2 = ∑(𝑥𝑖𝑦𝑖)
𝑛
𝑖=1
,
(∑ 𝑥𝑖
2
𝑛
𝑖=1
) 𝑎0 + (∑ 𝑥𝑖
3
𝑛
𝑖=1
) 𝑎1 + (∑ 𝑥𝑖
4
𝑛
𝑖=1
) 𝑎2 = ∑(𝑥𝑖
2𝑦𝑖)
𝑛
𝑖=1
.
(15)
Ilmiybaza.uz
{
𝑛𝑎0 + (∑ 𝑥𝑖
𝑛
𝑖=1
) 𝑎1 + (∑ 𝑥𝑖
2
𝑛
𝑖=1
) 𝑎2 + ⋯ + (∑ 𝑥𝑖
𝑚
𝑛
𝑖=1
) 𝑎𝑚 = ∑ 𝑦𝑖
𝑛
𝑖=1
,
(∑ 𝑥𝑖
𝑛
𝑖=1
) 𝑎0 + (∑ 𝑥𝑖
2
𝑛
𝑖=1
) 𝑎1 + (∑ 𝑥𝑖
3
𝑛
𝑖=1
) 𝑎2 + ⋯ + (∑ 𝑥𝑖
𝑚+1
𝑛
𝑖=1
) 𝑎𝑚 = ∑(𝑥𝑖𝑦𝑖)
𝑛
𝑖=1
,
⋯
(∑ 𝑥𝑖
𝑚
𝑛
𝑖=1
) 𝑎0 + (∑ 𝑥𝑖
𝑚+1
𝑛
𝑖=1
) 𝑎1 + (∑ 𝑥𝑖
𝑚+2
𝑛
𝑖=1
) 𝑎2 + ⋯ + (∑ 𝑥𝑖
2𝑚
𝑛
𝑖=1
) 𝑎𝑚 = ∑(𝑥𝑖
𝑚𝑦𝑖)
𝑛
𝑖=1
.
(1
Yuqorida (5) ko‘rinishda berilgan umumiy regressiya tenglamasi uchun (10)
tenglamalar sistemasi quyidagi ko‘rinishda yoziladi:
{
− 1
2 ∙ 𝜕𝑠
𝜕𝑎0
= ∑[𝑦𝑖 − 𝑓(𝑥𝑖, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)]
𝑛
𝑖=1
∙ 𝜕𝑓
𝜕𝑎0
= 0,
− 1
2 ∙ 𝜕𝑠
𝜕𝑎1
= ∑[𝑦𝑖 − 𝑓(𝑥𝑖, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)]
𝑛
𝑖=1
∙ 𝜕𝑓
𝜕𝑎1
= 0,
⋯
− 1
2 ∙ 𝜕𝑠
𝜕𝑎𝑚
= ∑[𝑦𝑖 − 𝑓(𝑥𝑖, 𝑎0, 𝑎1, ⋯ , 𝑎𝑚)]
𝑛
𝑖=1
∙ 𝜕𝑓
𝜕𝑎𝑚
= 0.
(17)
Korrelyasiya koeffitsiyenti
Ikkita x va y o‘zgaruvchi miqdorlar (1) ko‘rinishidagi chiziqli bog‘lanishga
ega deyiladi, agar ulardan biri o‘sishi bilan ikkinchisi ham chiziqli qonuniyat bilan
o‘ssa (yoki kamaysa).
1889 yilda ingliz ruhshunosi va antropologi Golton Frensis (1822 - 1911)
ikkita o‘zgaruvchi miqdor o‘rtasidagi chiziqli bog‘lanishning yaqinlik son
ko‘rsatkichini aniqdash fikrini ilgari surdi va u korrelyasiya koeffitsiyenti nomi bilan
ataldi.
XIX asrning 90 yillari boshida Pirson, Edjivort va Veldon kabi olimlar chiziqli
korrelyasiya koeffitsiyenti uchun quyidagi formulani taklif etdilar:
𝑟 = 𝑟0 = 𝑥𝑦
̅̅̅ − 𝑥̅ 𝑦̅
𝜎𝑥𝜎𝑦
, (18)
bu yerda:
𝑥𝑦
̅̅̅ = 1
𝑛 ∑(𝑥𝑖𝑦𝑖)
𝑛
𝑖=1
; 𝑥̅ = 1
𝑛 ∑ 𝑥𝑖
𝑛
𝑖=1
; 𝑦̅ = 1
𝑛 ∑ 𝑦𝑖
𝑛
𝑖=1
;
Ilmiybaza.uz
𝜎𝑥 = √1
𝑛 ∑ 𝑥𝑖
2
𝑛
𝑖=1
− (𝑥̅)2; 𝜎𝑦 = √1
𝑛 ∑ 𝑦𝑖
2
𝑛
𝑖=1
− (𝑦̅)2
Yukoridagi formuladan tashqari chiziqli korrelyasiya koeffitsiyentini
hisoblash imkonini beruvchi turli xil ko‘rinishdagi formulalar topilgan. Masalan:
n
i
i
n
i
i
n
i
i
i
xy
y
y
x
x
y
y
x
x
r
1
2
1
2
1
)
(
)
(
)
) (
(
(19)
2
1
1
2
2
1
1
2
1
1
1
n
i
i
n
i
i
n
i
i
n
i
i
n
i
i
n
i
i
n
i
i
i
xy
y
y
n
x
x
n
y
x
x y
n
r
(20)
Chiziqli korrelyasiya koeffitsiyenti [-1,1] oralikda qiymat qabul qiladi, ya’ni
𝑟𝑥𝑦 ∈ [−1; 1]. Agar 𝑟𝑥𝑦 = ±1 bo‘lsa, 𝑥 va 𝑦 miqdorlar orasida 𝑦 = 𝑎1𝑥 + 𝑎0
ko‘rinishdagi aniq chiziqli funksional bog‘lanish mavjud deyiladi va 𝑦 = 𝑎1𝑥 + 𝑎0
to‘g‘ri chiziq grafigi barcha tajriba nuqtalari orqali o‘tadi. Korrelyasiya
koeffitsiyenti −1 < 𝑟𝑥𝑦 < 1 shartni qanoatlantirganda Cheddok shkalasi bo‘yicha 𝑥
va 𝑦 miqdorlar orasidagi bog‘lanishning yaqinlik darajasi sifat jihatdan qanday
bo‘lishi quyidagi jadvalda keltirilgan:
№
𝑥 va 𝑦 miqdorlar
orasidagi
bog‘lanishning
yaqinlik darajasi
Korrelyasiya koeffitsiyentining o‘zgarish oralig‘i
To‘g‘ri bog‘lanish
(𝑥 o‘sishi bilan 𝑦 ham
o‘sadi)
Teskari bog‘lanish
(𝑥 o‘sishi bilan 𝑦
kamayadi)
1. Kuchsiz
[0.1; 0.3)
(-0.3; -0.1]
2. O‘rtacha
[0.3; 0.5)
(-0.5; -0.3]
3. Sezilarli
[0.5; 0.7)
(-0.7; -0.5]
4. Yuqori
[0.7; 0.9)
(-0.9; -0.7]
5. O‘ta yuqori
[0.9; 0.99)
(-0.99; -0.9]
Ikkita miqdor orasidagi bog‘lanish chiziqli qonuniyatga bo‘ysunishi uchun
kamida |𝑟𝑥𝑦| > 0.5 shart bajarilish lozim (|𝑟𝑥𝑦| < 1).
Ilmiybaza.uz
Korrelyasiya indeksi
O‘rganilayotgan voqea yoki hodisalar o‘rtasidagi bog‘lanish chiziqsiz (egri
chiziqli) qonuniyatga bo‘ysunsa, ushbu bog‘lanishning yaqinlik darajasini o‘lchash
uchun korrelyasiya koeffщienti yaroqsiz bo‘lib qoladi. Ikkita miqdor o‘rtasidagi
bog‘lanish chiziqsiz bo‘lganda, bog‘lanish yaqinligini o‘lchovi sifatida korrelyasion
munosabat yoki «korrelyasiya indeksi» deb ataluvchi quyidagi formuladan
foydalaniladi:
n
i
y
i
n
i
i
i
M
y
Y
y
1
2
1
2
1
(21)
Bu er da 𝑦𝑖 — tajriba natijasida olingan 𝑖 - qiymat; 𝑌𝑖 - kichik kvadratlar usuli bilan
olingan regressiya tenglamasining 𝑥𝑖 dagi qiymati;
n
i
i
y
y
n
M
1
1
, (o‘rta qiymat).
Korrelyasiya indeksi [0, 1] kesmada qiymat qabul qiladi (𝛾 ∈ [0; 1]), 𝛾 = 1
bo‘lganda tajriba natijalari bilan regressiya tenglamasi orasida funksional bog‘lanish
mavjud deb ataladi va regressiya funksiyasining grafigi barcha tajriba nuqtalari
orqali o‘tadi. Korrelyasiya indeksidan chiziqli bog‘lanishlarning yaqinlik darajasini
son o‘lchovi sifatida ham foydalanish mumkin. Chiziqli qonuniyatga ega bo‘lgan
bog‘lanishlarda korrelyasiya koeffitsiyenti absolyut qiymat jixatdan korrelyasiya
indeksiga teng bo‘ladi.