Primjer analize regresijskih podataka. Metode matematičke statistike

Pretplatite se
Pridružite se zajednici parkvak.ru!
U kontaktu sa:

Regresiona analiza je metoda modeliranja izmjerenih podataka i proučavanja njihovih svojstava. Podaci se sastoje od parova vrijednosti zavisne varijable (varijable odgovora) i nezavisne varijable (varijable koja objašnjava). Regresijski model je funkcija nezavisne varijable i parametara s dodanom slučajnom varijablom.

Korelaciona analiza i regresiona analiza su povezani odeljci matematičke statistike i namenjeni su proučavanju statističke zavisnosti određenog broja veličina koristeći podatke uzorka; od kojih su neke nasumične. Kod statističke zavisnosti, veličine nisu funkcionalno povezane, već kako slučajne varijable date su zajedničkom distribucijom vjerovatnoće.

Proučavanje zavisnosti slučajnih varijabli dovodi do regresijskih modela i regresione analize na osnovu podataka uzorka. Teorija vjerovatnoće i matematička statistika predstavljaju samo alat za proučavanje statističke zavisnosti, ali nemaju za cilj uspostavljanje uzročne veze. Ideje i hipoteze o uzročno-posledičnoj vezi moraju biti donesene iz neke druge teorije koja omogućava smisleno objašnjenje fenomena koji se proučava.

Numerički podaci obično imaju eksplicitne (poznate) ili implicitne (skrivene) međusobne odnose.

Pokazatelji koji se dobijaju direktnim metodama izračunavanja, odnosno izračunati pomoću prethodno poznatih formula, jasno su povezani. Na primjer, procenti izvršenja plana, nivoi, specifične težine, odstupanja u iznosu, odstupanja u procentima, stope rasta, stope rasta, indeksi itd.

Veze drugog tipa (implicitne) su unaprijed nepoznate. Međutim, potrebno je biti u stanju objasniti i predvidjeti (predvidjeti) složene pojave kako bi se njima upravljalo. Stoga stručnjaci uz pomoć zapažanja nastoje identificirati skrivene ovisnosti i izraziti ih u obliku formula, odnosno matematički modelirati pojave ili procese. Jedna takva prilika je korelaciono-regresiona analiza.

Matematički modeli se grade i koriste u tri opšte svrhe:

  • * za objašnjenje;
  • * za predviđanje;
  • * Za vožnju.

Koristeći metode korelacijske i regresione analize, analitičari mjere bliskost veza između indikatora pomoću koeficijenta korelacije. U ovom slučaju otkrivaju se veze koje su različite po jačini (jake, slabe, umjerene itd.) i različite po smjeru (direktno, obrnuto). Ako se veze pokažu značajnim, onda bi bilo preporučljivo pronaći njihov matematički izraz u obliku regresijskog modela i procijeniti statistički značaj modeli.

Regresiona analiza se naziva glavnim metodom moderne matematičke statistike za identifikaciju implicitnih i prikrivenih veza između podataka opservacije.

Iskaz problema regresione analize je formulisan na sledeći način.

Postoji skup rezultata opservacije. U ovom skupu jedna kolona odgovara indikatoru za koji je potrebno uspostaviti funkcionalni odnos sa parametrima objekta i okruženja koje predstavljaju preostale kolone. Obavezno: uspostaviti kvantitativni odnos između indikatora i faktora. U ovom slučaju, problem regresione analize shvata se kao zadatak identifikacije takve funkcionalne zavisnosti y = f (x2, x3, ..., xt), koja najbolji način opisuje dostupne eksperimentalne podatke.

Pretpostavke:

broj opservacija je dovoljan da demonstrira statističke obrasce u pogledu faktora i njihovih odnosa;

obrađeni podaci sadrže neke greške (šum) zbog grešaka mjerenja i utjecaja neuračunatih slučajnih faktora;

matrica rezultata posmatranja je jedina informacija o objektu koji se proučava koja je dostupna prije početka istraživanja.

Funkcija f (x2, x3, ..., xt), koja opisuje zavisnost indikatora od parametara, naziva se regresijska jednačina (funkcija). Pojam "regresija" (regresija (lat.) - povlačenje, povratak na nešto) povezan je sa specifičnostima jednog od specifičnih problema riješenih u fazi formiranja metode.

Preporučljivo je rješenje problema regresione analize podijeliti u nekoliko faza:

prethodna obrada podataka;

odabir vrste regresijskih jednačina;

izračunavanje koeficijenata regresijske jednačine;

provjera adekvatnosti konstruirane funkcije rezultatima promatranja.

Prethodna obrada uključuje standardizaciju matrice podataka, izračunavanje koeficijenata korelacije, provjeru njihovog značaja i isključivanje beznačajnih parametara iz razmatranja.

Odabir tipa regresione jednadžbe Zadatak određivanja funkcionalnog odnosa koji najbolje opisuje podatke uključuje prevazilaženje niza fundamentalnih poteškoća. IN opšti slučaj za standardizovane podatke, funkcionalna zavisnost indikatora od parametara može se predstaviti kao

y = f (x1, x2, …, xm) + e

gdje je f prethodno nepoznata funkcija koju treba odrediti;

e - greška aproksimacije podataka.

Ova jednačina se obično naziva jednadžba regresije uzorka. Ova jednačina karakteriše odnos između varijacije indikatora i varijacija faktora. A mjera korelacije mjeri udio varijacije u indikatoru koji je povezan s varijacijama faktora. Drugim riječima, korelacija između indikatora i faktora ne može se tumačiti kao veza između njihovih nivoa, a regresiona analiza ne objašnjava ulogu faktora u kreiranju indikatora.

Druga karakteristika se odnosi na procjenu stepena uticaja svakog faktora na indikator. Jednačina regresije ne daje procjenu posebnog uticaja svakog faktora na indikator; Ako je faktor koji se proučava povezan s drugim faktorima koji utiču na indikator, tada će se dobiti mješovita karakteristika utjecaja faktora. Ova karakteristika sadrži kako direktan uticaj faktora tako i indirektan uticaj koji se vrši kroz povezanost sa drugim faktorima i njihov uticaj na indikator.

IN regresijska jednačina Ne preporučuje se uključivanje faktora koji su slabo povezani sa indikatorom, ali su usko povezani sa drugim faktorima. Faktori koji su međusobno funkcionalno povezani također nisu uključeni u jednačinu (za njih je koeficijent korelacije 1). Uključivanje takvih faktora dovodi do degeneracije sistema jednačina za procjenu koeficijenata regresije i do nesigurnosti rješenja.

Funkcija f mora biti odabrana tako da je greška e na neki način minimalna. Da bi se izabrala funkcionalna veza, unaprijed se postavlja hipoteza o tome kojoj klasi funkcija f može pripadati, a zatim se bira „najbolja“ funkcija u ovoj klasi. Odabrana klasa funkcija mora imati neku „glatkost“, tj. "male" promjene vrijednosti argumenata trebale bi uzrokovati "male" promjene u vrijednostima funkcija.

Poseban slučaj koji se široko koristi u praksi je polinomska jednačina prvog stepena ili jednačina linearne regresije

Za odabir vrste funkcionalne ovisnosti može se preporučiti sljedeći pristup:

tačke sa vrednostima indikatora su grafički prikazane u prostoru parametara. At velike količine parametara, možete konstruisati tačke u odnosu na svaku od njih, dobijajući dvodimenzionalne distribucije vrednosti;

na osnovu lokacije tačaka i na osnovu analize suštine odnosa između indikatora i parametara objekta, donosi se zaključak o približnom tipu regresije ili njenim mogućim varijantama;

Nakon izračunavanja parametara, ocjenjuje se kvalitet aproksimacije, tj. procijeniti stepen sličnosti između izračunatih i stvarnih vrijednosti;

ako su izračunate i stvarne vrijednosti bliske u cijelom području zadatka, onda se problem regresione analize može smatrati riješenim. U suprotnom, možete pokušati odabrati drugu vrstu polinoma ili neku drugu analitičku funkciju, kao što je periodična.

Izračunavanje koeficijenata regresijske jednačine

Nemoguće je jednoznačno riješiti sistem jednačina na osnovu dostupnih podataka, jer je broj nepoznatih uvijek veći od broja jednačina. Da bi se ovaj problem prevazišao, potrebne su dodatne pretpostavke. Zdrav razum nalaže: preporučljivo je odabrati koeficijente polinoma na način da se osigura minimalna greška u aproksimaciji podataka. Za procjenu aproksimacijskih grešaka mogu se koristiti različite mjere. Kao takva mjera se široko koristi srednja kvadratna greška. Na njenoj osnovi razvijena je posebna metoda za procjenu koeficijenata regresionih jednačina - metoda najmanjih kvadrata(MNC). Ova metoda vam omogućava da dobijete procjene maksimalne vjerovatnoće nepoznatih koeficijenata regresione jednadžbe pod opcijom normalne distribucije, ali se može koristiti za bilo koju drugu distribuciju faktora.

MNC se zasniva na sljedećim odredbama:

vrijednosti grešaka i faktora su nezavisne, a samim tim i nekorelirane, tj. pretpostavlja se da mehanizmi za generisanje smetnji nisu povezani sa mehanizmom za generisanje vrednosti faktora;

matematičko očekivanje greške e mora biti jednako nuli (konstantna komponenta je uključena u koeficijent a0), drugim riječima, greška je centrirana veličina;

procjena uzorka varijanse greške treba biti minimalna.

Ako je linearni model netačan ili su parametri izmjereni neprecizno, tada nam u ovom slučaju metoda najmanjih kvadrata omogućava da pronađemo takve vrijednosti koeficijenata pri kojima linearni model najbolje opisuje stvarni objekt u smislu odabrane standardne devijacije kriterijum.

Kvalitet rezultirajuće regresione jednadžbe ocjenjuje se stepenom bliskosti između rezultata promatranja indikatora i vrijednosti predviđenih regresijskom jednadžbom u date bodove prostor parametara. Ako su rezultati bliski, onda se problem regresione analize može smatrati riješenim. U suprotnom, trebali biste promijeniti jednadžbu regresije i ponoviti proračune da biste procijenili parametre.

Ako postoji više indikatora, problem regresione analize rješava se nezavisno za svaki od njih.

Analizirajući suštinu regresione jednačine, treba napomenuti sljedeće. Razmatrani pristup ne pruža odvojenu (nezavisnu) ocjenu koeficijenata - promjena vrijednosti jednog koeficijenta povlači promjenu vrijednosti drugih. Dobijene koeficijente ne treba smatrati doprinosom odgovarajućeg parametra vrijednosti indikatora. Jednačina regresije je jednostavno dobra analitički opis dostupne podatke, a ne zakon koji opisuje odnos između parametara i indikatora. Ova jednadžba se koristi za izračunavanje vrijednosti indikatora u datom rasponu promjena parametara. Ograničeno je pogodan za proračune izvan ovog opsega, tj. može se koristiti za rješavanje interpolacijskih problema i, u ograničenoj mjeri, za ekstrapolaciju.

Glavni razlog netačnosti prognoze nije toliko nesigurnost ekstrapolacije regresijske linije, već značajna varijacija indikatora zbog faktora koji nisu uzeti u obzir u modelu. Ograničenje sposobnosti predviđanja je uslov stabilnosti parametara koji se ne uzimaju u obzir u modelu i priroda uticaja faktora modela koji se uzimaju u obzir. Ako se iznenada promeni spoljašnje okruženje, tada će sastavljena regresijska jednačina izgubiti svoje značenje.

Prognoza dobijena zamjenom očekivane vrijednosti parametra u regresionu jednačinu je tačka jedan. Vjerovatnoća da će se takva prognoza ostvariti je zanemarljiva. Preporučljivo je odrediti interval pouzdanosti prognoze. Za pojedinačne vrijednosti indikatora, interval treba uzeti u obzir greške u položaju regresijske linije i odstupanja pojedinačnih vrijednosti od ove linije.

Svrha regresione analize je mjerenje odnosa između zavisne varijable i jedne (parna regresiona analiza) ili više (više) nezavisnih varijabli. Nezavisne varijable se takođe nazivaju faktorske, eksplanatorne, determinantne, regresorske i prediktorske varijable.

Zavisna varijabla se ponekad naziva definirana, objašnjena ili “odgovorna” varijabla. Izuzetno rasprostranjena upotreba regresione analize u empirijskim istraživanjima nije samo zbog činjenice da je ona pogodan alat za testiranje hipoteza. Regresija, posebno višestruka regresija, jeste efikasan metod modeliranje i predviđanje.

Počnimo objašnjavati principe rada s regresijskom analizom jednostavnijom - metodom parova.

Uparena regresijska analiza

Prvi koraci pri korištenju regresione analize bit će gotovo identični onima koje smo poduzeli pri izračunavanju koeficijenta korelacije. Tri glavna uslova za efikasnost korelacione analize prema Pearson metodi - normalna distribucija varijabli, intervalno mjerenje varijabli, linearni odnos između varijabli - također su relevantni za višestruku regresiju. Shodno tome, u prvoj fazi se konstruišu dijagrami raspršenja, vrši se statistička i deskriptivna analiza varijabli i izračunava regresijska linija. Kao iu okviru korelacione analize, regresijske linije se konstruišu metodom najmanjih kvadrata.

Da bismo jasnije ilustrovali razlike između ove dve metode analize podataka, okrenimo se već diskutovanom primeru sa varijablama „Podrška SPS“ i „udeo ruralnog stanovništva“. Izvorni podaci su identični. Razlika u dijagramima raspršenja će biti u tome što je u regresionoj analizi ispravno iscrtati zavisnu varijablu – u našem slučaju, “SPS podršku” na Y-osi, dok u korelacionoj analizi to nije bitno. Nakon čišćenja odstupanja, dijagram raspršenosti izgleda ovako:

Osnovna ideja regresijske analize je da je, imajući opći trend za varijable - u obliku regresijske linije - moguće predvidjeti vrijednost zavisne varijable, s obzirom na vrijednosti nezavisne.

Zamislimo običnu matematičku linearnu funkciju. Bilo koja linija u Euklidskom prostoru može se opisati formulom:

gdje je a konstanta koja specificira pomak duž ordinatne ose; b je koeficijent koji određuje ugao nagiba linije.

Poznavajući nagib i konstantu, možete izračunati (predvidjeti) vrijednost y za bilo koji x.

Ova najjednostavnija funkcija formirala je osnovu modela regresione analize uz upozorenje da nećemo predvidjeti vrijednost y tačno, već unutar određenog interval povjerenja, tj. otprilike.

Konstanta je tačka preseka linije regresije i y-ose (F-presek, koji se u statističkim paketima obično označava kao „presretač”). U našem primjeru sa glasanjem za Savez desnih snaga, njegova zaokružena vrijednost će biti 10,55. Ugaoni koeficijent b će biti približno -0,1 (kao u korelacionoj analizi, znak pokazuje vrstu veze - direktnu ili inverznu). Tako će rezultirajući model imati oblik SP C = -0,1 x Sel. nas. + 10.55.

ATP = -0,10 x 47 + 10,55 = 5,63.

Razlika između originalne i predviđene vrijednosti naziva se ostatak (s tim pojmom, koji je fundamentalan za statistiku, već smo se susreli pri analizi kontingentnih tablica). Dakle, za slučaj "Republike Adigeje" ostatak će biti jednak 3,92 - 5,63 = -1,71. Što je veća modularna vrijednost ostatka, to je manje uspješno predviđena vrijednost.

Izračunavamo predviđene vrijednosti i ostatke za sve slučajeve:
Dešava se Sjesti. nas. hvala

(original)

hvala

(predviđeno)

Ostaci
Republika Adygea 47 3,92 5,63 -1,71 -
Republika Altaj 76 5,4 2,59 2,81
Republika Baškortostan 36 6,04 6,78 -0,74
Republika Buryatia 41 8,36 6,25 2,11
Republika Dagestan 59 1,22 4,37 -3,15
Republika Ingušetija 59 0,38 4,37 3,99
itd.

Analiza omjera početnih i predviđenih vrijednosti služi za procjenu kvaliteta rezultirajućeg modela i njegove prediktivne sposobnosti. Jedan od glavnih pokazatelja regresijska statistika je koeficijent višestruke korelacije R - koeficijent korelacije između originalne i predviđene vrijednosti zavisne varijable. U parnoj regresionoj analizi jednak je uobičajenom Pirsonovom koeficijentu korelacije između zavisnih i nezavisnih varijabli, u našem slučaju - 0,63. Za smisleno tumačenje višestrukog R, mora se pretvoriti u koeficijent determinacije. To se radi na isti način kao u korelacionoj analizi - kvadriranjem. Koeficijent determinacije R-kvadrat (R 2) pokazuje proporciju varijacije zavisne varijable koja je objašnjena nezavisnom varijablom(ama).

U našem slučaju, R 2 = 0,39 (0,63 2); to znači da varijabla “udio ruralnog stanovništva” objašnjava otprilike 40% varijacije u varijabli “SPS podrška”. Što je veći koeficijent determinacije, to je veći kvalitet modela.

Drugi pokazatelj kvaliteta modela je standardna greška procjene. Ovo je mjera koliko su tačke „rasute“ oko linije regresije. Mjera širenja za intervalne varijable je standardna devijacija. shodno tome, standardna greška procjene su standardna devijacija distribucije reziduala. Što je veća njegova vrijednost, veći je raspršivanje i lošiji je model. U našem slučaju, standardna greška je 2,18. Upravo za taj iznos će naš model „prosečno grešiti” prilikom predviđanja vrednosti varijable „SPS podrška”.

Regresijska statistika također uključuje analizu varijanse. Uz njegovu pomoć saznajemo: 1) koliki je udio varijacije (disperzije) zavisne varijable objašnjen nezavisnom varijablom; 2) koliki deo varijanse zavisne varijable čine ostaci (neobjašnjivi deo); 3) koliki je omjer ove dvije veličine (/"-odnos). Statistika disperzije je posebno važna za studije uzorka - pokazuje koliko je vjerovatno da postoji veza između nezavisnih i zavisnih varijabli u populaciji. Međutim, za kontinuiranim studijama (kao u našem primjeru) rezultati analize varijanse nisu korisni. U ovom slučaju provjeravaju da li je identificirani statistički obrazac uzrokovan slučajnošću slučajnih okolnosti, u kojoj mjeri je karakterističan za skup uslova. u kojoj se nalazi populacija koja se ispituje, odnosno utvrđuje se da dobijeni rezultat nije tačan za neki širi opšti agregat, već stepen njegove pravilnosti, oslobođenosti od slučajnih uticaja.

U našem slučaju, ANOVA statistika je sljedeća:

SS df GOSPOĐA F značenje
Regres. 258,77 1,00 258,77 54,29 0.000000001
Ostatak 395,59 83,00 L,11
Ukupno 654,36

F-razmjer od 54,29 je značajan na nivou od 0,0000000001. Shodno tome, sa sigurnošću možemo odbaciti nultu hipotezu (da je odnos koji smo otkrili rezultat slučajnosti).

Kriterijum t ima sličnu funkciju, ali u odnosu na koeficijente regresije (ugaoni i F-presek). Koristeći / kriterij testiramo hipotezu da su u općoj populaciji koeficijenti regresije jednaki nuli. U našem slučaju, opet možemo sa sigurnošću odbaciti nultu hipotezu.

Višestruka regresiona analiza

Model višestruka regresija skoro identičan modelu uparene regresije; jedina razlika je u tome što je nekoliko nezavisnih varijabli sekvencijalno uključeno u linearnu funkciju:

Y = b1X1 + b2X2 + …+ bpXp + a.

Ako postoji više od dvije nezavisne varijable, ne možemo dobiti vizualnu predstavu o njihovom odnosu u tom pogledu, višestruka regresija je manje „vizualna“ od regresije u paru. Kada imate dvije nezavisne varijable, može biti korisno prikazati podatke u 3D dijagramu raspršenja. U profesionalnim statističkim softverskim paketima (na primjer, Statistica) postoji mogućnost rotiranja trodimenzionalnog grafikona, što vam omogućava da vizualno dobro predstavite strukturu podataka.

Kod rada sa višestrukom regresijom, za razliku od parne regresije, potrebno je odrediti algoritam analize. Standardni algoritam uključuje sve dostupne prediktore u konačnom regresijskom modelu. Korak po korak algoritam uključuje sekvencijalno uključivanje (isključivanje) nezavisnih varijabli na osnovu njihove objašnjavajuće „težine“. Stepwise metoda je dobra kada postoji mnogo nezavisnih varijabli; “čisti” model od iskreno slabih prediktora, čineći ga kompaktnijim i konciznijim.

Dodatni uslov za ispravnost višestruke regresije (uz interval, normalnost i linearnost) je odsustvo multikolinearnosti – prisustvo jakih korelacija između nezavisnih varijabli.

Tumačenje statistike višestruke regresije uključuje sve elemente koje smo razmotrili za slučaj parne regresije. Pored toga, postoje i druge važne komponente statistike višestruke regresione analize.

Rad ćemo ilustrovati višestrukom regresijom na primjeru testiranja hipoteza koje objašnjavaju razlike u nivou izborne aktivnosti u ruskim regijama. Specifične empirijske studije sugerišu da na nivo izlaznosti birača utiču:

Nacionalni faktor (varijabilna " rusko stanovništvo"; operacionalizovan kao udio ruskog stanovništva u konstitutivnim entitetima Ruske Federacije). Pretpostavlja se da povećanje udjela ruskog stanovništva dovodi do smanjenja izlaznosti birača;

Faktor urbanizacije (varijabilna " gradsko stanovništvo"; operacionalizovan kao udeo gradskog stanovništva u konstitutivnim entitetima Ruske Federacije, već smo radili sa ovim faktorom u okviru korelacione analize); Pretpostavlja se da povećanje udjela gradskog stanovništva dovodi i do smanjenja izlaznosti birača.

Zavisna varijabla, “intenzitet izborne aktivnosti” (“aktivan”), operacionalizirana je kroz podatke o prosječnom odzivu po regionima za savezni izbori od 1995. do 2003. Originalna tabela podataka za dvije nezavisne i jednu zavisnu varijable bit će sljedeća:

Dešava se Varijable
Imovina. Gor. nas. Rus. nas.
Republika Adygea 64,92 53 68
Republika Altaj 68,60 24 60
Republika Buryatia 60,75 59 70
Republika Dagestan 79,92 41 9
Republika Ingušetija 75,05 41 23
Republika Kalmikija 68,52 39 37
Republika Karachay-Cherkess 66,68 44 42
Republika Karelija 61,70 73 73
Republika Komi 59,60 74 57
Republika Mari El 65,19 62 47

itd. (nakon čišćenja emisija ostaje 83 od 88 slučajeva)

Statistički podaci koji opisuju kvalitet modela:

1. Višestruki R = 0,62; L-kvadrat = 0,38. dakle, nacionalni faktor i faktor urbanizacije zajedno objašnjavaju oko 38% varijacije varijable „izborna aktivnost“.

2. Prosječna greška je 3,38. Upravo toliko je „prosječno pogrešan“ konstruirani model kada se predviđa nivo izlaznosti.

3. /l-odnos objašnjene i neobjašnjive varijacije je 25,2 na nivou 0,000000003. Odbacuje se nulta hipoteza o nasumičnosti identifikovanih veza.

4. Kriterijum / za konstantne i regresijske koeficijente varijabli „gradsko stanovništvo“ i „rusko stanovništvo“ je značajan na nivou od 0,0000001; 0,00005 i 0,007 respektivno. Nul hipoteza da su koeficijenti slučajni se odbacuje.

Dodatne korisne statistike u analizi odnosa između originalne i predviđene vrijednosti zavisne varijable su Mahalanobisova udaljenost i Cookova udaljenost. Prvi je mjera jedinstvenosti slučaja (pokazuje koliko kombinacija vrijednosti svih nezavisnih varijabli za dati slučaj odstupa od prosječne vrijednosti za sve nezavisne varijable istovremeno). Druga je mjera uticaja slučaja. Različita opažanja imaju različite efekte na nagib linije regresije, a Cookova udaljenost se može koristiti za njihovo upoređivanje na ovom indikatoru. Ovo može biti korisno pri čišćenju izvanrednih vrijednosti (odvojeni slučaj se može smatrati pretjerano utjecajnim slučajem).

U našem primjeru, jedinstveni i utjecajni slučajevi uključuju Dagestan.

Dešava se Original

vrijednosti

Predska

vrijednosti

Ostaci Razdaljina

Mahalanobis

Razdaljina
Adygea 64,92 66,33 -1,40 0,69 0,00
Republika Altaj 68,60 69.91 -1,31 6,80 0,01
Republika Buryatia 60,75 65,56 -4,81 0,23 0,01
Republika Dagestan 79,92 71,01 8,91 10,57 0,44
Republika Ingušetija 75,05 70,21 4,84 6,73 0,08
Republika Kalmikija 68,52 69,59 -1,07 4,20 0,00

Sam regresijski model ima sljedeće parametre: Y-presjek (konstanta) = 75,99; b (horizontalno) = -0,1; Kommersant (rus. nas.) = -0,06. Konačna formula.

Karakteristike kauzalnih zavisnosti

Uzročno-posledične veze- ovo je veza između pojava i procesa, kada promjena jednog od njih - uzroka - dovodi do promjene drugog - posljedice.

Znakovi prema svom značaju za proučavanje odnosa dijele se u dvije klase.

Znakovi koji uzrokuju promjene u drugim znakovima povezanim s njima se nazivaju faktorijal (ili faktori).

Znakovi koji se mijenjaju pod uticajem faktorskih znakova su efektivno.

Razlikuju se sljedeći oblici komunikacije: funkcionalni i stohastički. Funkcionalni je odnos u kojem određena vrijednost faktorske karakteristike odgovara jednoj i samo jednoj vrijednosti rezultantne karakteristike. Funkcionalna povezanost se manifestuje u svim slučajevima posmatranja i za svaku konkretnu jedinicu populacije koja se proučava.

Funkcionalni odnos se može predstaviti sljedećom jednadžbom:
y i =f(x i), gdje: y i - rezultantni znak; f(x i) - poznata funkcija veze između rezultantnih i faktorskih karakteristika; x i - faktor znak.
IN prava priroda nema funkcionalnih veza. Oni su samo apstrakcije, korisne u analizi fenomena, ali pojednostavljuju stvarnost.

Stohastički (statistički ili slučajni)veza predstavlja odnos između veličina u kojem jedna od njih reaguje na promjenu druge veličine ili drugih veličina promjenom zakona raspodjele. Drugim riječima, sa ovom vezom različita značenja jedna varijabla odgovara različitim distribucijama druge varijable. To je zbog činjenice da na zavisnu varijablu, pored nezavisnih koje se razmatraju, utiču i brojni neobračunati ili nekontrolisani slučajni faktori, kao i neke neizbežne greške u merenju varijabli. Zbog činjenice da su vrijednosti zavisne varijable podložne slučajnom rasipanju, one se ne mogu predvidjeti s dovoljnom točnošću, već se mogu naznačiti samo s određenom vjerojatnošću.

Zbog dvosmislenosti stohastičke zavisnosti između Y i X, posebno je interesantna šema zavisnosti usrednjena za x, tj. obrazac u promjeni prosječne vrijednosti - uslovno matematičko očekivanje Mx(Y) (matematičko očekivanje slučajne varijable Y, pronađeno pod uslovom da varijabla X poprima vrijednost x) u zavisnosti od x.

Poseban slučaj stohastičke sprege je korelacione veze. Korelacija(od lat. korelacija- korelacija, odnos). Direktna definicija pojma korelacija - stohastički, vjerovatno, moguće veza između dvije (uparene) ili nekoliko (više) slučajnih varijabli.

Korelaciona zavisnost između dve varijable naziva se i statistička veza između ovih varijabli, u kojoj svakoj vrednosti jedne varijable odgovara određena prosečna vrednost, tj. uslovno matematičko očekivanje je drugačije. Korelaciona ovisnost je poseban slučaj stohastičke ovisnosti, u kojoj promjena vrijednosti faktorskih karakteristika (x 1 x 2 ..., x n) povlači promjenu prosječne vrijednosti rezultirajuće karakteristike.



Uobičajeno je razlikovati sledeće vrste korelacije:

1. Parna korelacija – veza između dvije karakteristike (rezultativne i faktorske ili dva faktora).

2. Parcijalna korelacija - zavisnost između rezultantne i jedne faktorske karakteristike sa fiksnom vrijednošću ostalih faktorskih karakteristika uključenih u studiju.

3. Višestruka korelacija– zavisnost rezultanta i dvije ili više faktorskih karakteristika uključenih u studiju.

Svrha regresijske analize

Analitički oblik predstavljanja uzročno-posledičnih veza su regresijski modeli. Naučna valjanost i popularnost regresione analize čini je jednim od glavnih matematičkih alata za modeliranje fenomena koji se proučava. Ova metoda se koristi za izglađivanje eksperimentalnih podataka i dobijanje kvantitativne procjene komparativni uticaj različitih faktora na varijablu ishoda.

Regresiona analiza je u definiciji analitičkog izraza odnosa u kojem je promjena jedne vrijednosti (zavisne varijable ili rezultantne karakteristike) posljedica utjecaja jedne ili više nezavisnih vrijednosti (faktora ili prediktora), i skupa svih ostalih faktora koje takođe utiču na zavisnu vrednost uzimaju se kao konstantne i prosečne vrednosti .

Ciljevi regresione analize:

Procjena funkcionalne zavisnosti uslovne prosječne vrijednosti rezultantne karakteristike y od faktora faktora (x 1, x 2, ..., x n);

Predviđanje vrijednosti zavisne varijable koristeći nezavisnu(e) varijablu(e).

Određivanje doprinosa pojedinačnih nezavisnih varijabli varijaciji zavisne varijable.

Regresionom analizom se ne može utvrditi da li postoji veza između varijabli, jer je postojanje takve veze preduslov za primenu analize.

U regresijskoj analizi unaprijed se pretpostavlja da postoje uzročno-posljedične veze između rezultante (U) i faktorskih karakteristika x 1, x 2 ..., x n.

Funkcija , op Odredjujuća zavisnost indikatora od parametara naziva se regresijska jednačina (funkcija) 1 . Jednačina regresije pokazuje očekivanu vrijednost zavisne varijable s obzirom na određene vrijednosti nezavisnih varijabli.
U zavisnosti od broja faktora uključenih u model X modeli se dijele na jednofaktorne (model parne regresije) i višefaktorske (model višestruke regresije). Ovisno o vrsti funkcije, modeli se dijele na linearne i nelinearne.

Model uparene regresije

Zbog uticaja neuračunatih slučajnih faktora i uzroka, pojedinačna zapažanja y će u većoj ili manjoj meri odstupiti od funkcije regresije f(x). U ovom slučaju, jednačina za odnos između dvije varijable (upareni regresijski model) može se predstaviti kao:

Y=f(X) + ɛ,

gdje je ɛ slučajna varijabla koja karakterizira odstupanje od funkcije regresije. Ova varijabla se naziva smetnja ili smetnja (rezidualna ili greška). Dakle, u regresijskom modelu zavisna varijabla Y postoji neka funkcija f(X) do nasumičnih poremećaja ɛ.

Razmotrimo klasični linearni model parne regresije (CLMPR). Ona izgleda kao

y i =β 0 +β 1 x i +ɛ i (i=1,2, …, n),(1)

Gdje y i– objašnjeno (rezultirajuća, zavisna, endogena varijabla); x i– eksplanatorna (prediktorska, faktorska, egzogena) varijabla; β 0 , β 1– numerički koeficijenti; ɛi– slučajna (stohastička) komponenta ili greška.

Osnovni uslovi (preduslovi, hipoteze) KLMPR-a:

1) x i– deterministička (nesumična) veličina, a pretpostavlja se da među vrijednostima x i – nisu sve iste.

2) Matematičko očekivanje (prosječna vrijednost) poremećaja ɛi jednako nuli:

M[ɛ i ]=0 (i=1,2, …, n).

3) Disperzija poremećaja je konstantna za bilo koju vrijednost i (uslov homoskedastičnosti):

D[ɛ i ]=σ 2 (i=1,2, …, n).

4) Poremećaji za različita opažanja nisu u korelaciji:

cov[ɛ i , ɛ j ]=M[ɛ i , ɛ j ]=0 za i≠j,

gdje je cov[ɛ i , ɛ j ] koeficijent kovarijance (korelacijski momenat).

5) Poremećaji su normalno raspoređene slučajne varijable sa nultom srednjom vrednošću i varijansom σ 2:

ɛ i ≈ N(0, σ 2).

Da bi se dobila jednačina regresije, dovoljne su prve četiri premise. Zahtjev da se ispuni peti preduslov je neophodan za procjenu tačnosti jednačine regresije i njenih parametara.

komentar: Fokus na linearnim odnosima objašnjava se ograničenom varijacijom varijabli i činjenicom da se u većini slučajeva nelinearni oblici odnosa pretvaraju (logaritmom ili zamjenom varijabli) u linearni oblik za obavljanje proračuna.

Tradicionalna metoda najmanji kvadrati (LS)

Procjena modela iz uzorka je jednačina

ŷ i = a 0 + a 1 x i(i=1,2, …, n), (2)

gdje je ŷ i – teorijske (aproksimativne) vrijednosti zavisne varijable dobijene iz jednadžbe regresije; a 0 , a 1 - koeficijenti (parametri) regresione jednačine (uzorak procjena koeficijenata β 0, β 1, respektivno).

Prema najmanjim kvadratima, nepoznati parametri a 0 , a 1 biraju se tako da je zbir kvadrata odstupanja vrijednosti ŷ i od empirijskih vrijednosti y i (preostali zbir kvadrata) minimalan:

Q e =∑e i 2 = ∑(y i – ŷ i) 2 = ∑(yi – (a 0 + a 1 x i)) 2 → min, (3)

gdje je e i = y i - ŷ i – procjena uzorka poremećaja ɛ i, ili rezidual regresije.

Problem se svodi na pronalaženje takvih vrijednosti parametara a 0 i a 1 za koje funkcija Q e uzima najmanju vrijednost. Imajte na umu da je funkcija Q e = Q e (a 0 , a 1) funkcija dvije varijable a 0 i a 1 sve dok nismo pronašli i potom fiksirali njihove “najbolje” (u smislu metode najmanjih kvadrata) vrijednosti, a x i , y i su konstantni brojevi pronađeni eksperimentalno.

Potrebni uslovi ekstremi (3) se nalaze izjednačavanjem parcijalnih izvoda ove funkcije dvije varijable na nulu. Kao rezultat, dobijamo sistem od dve linearne jednačine, koji se naziva sistem normalnih jednačina:

(4)

Koeficijent a 1 je koeficijent regresije uzorka y na x, koji pokazuje koliko se jedinica u prosjeku mijenja varijabla y kada se varijabla x promijeni za jednu jedinicu mjerenja, odnosno varijaciju u y po jedinici varijacije u x. Potpiši a 1 ukazuje na smjer ove promjene. Koeficijent a 0 - pomak, prema (2) jednak je vrijednosti ŷ i pri x = 0 i možda nema smislenu interpretaciju. Iz tog razloga, zavisna varijabla se ponekad naziva odgovor.

Statistička svojstva procjena koeficijenta regresije:

Procjene koeficijenta a 0, a 1 su nepristrasne;

Varijance procjena a 0 , a 1 se smanjuju (tačnost procjena raste) sa povećanjem veličine uzorka n;

Varijanca procjene nagiba a 1 opada sa povećanjem i stoga je preporučljivo izabrati x i tako da njihovo širenje oko prosječne vrijednosti bude veliko;

Za x¯ > 0 (što je od najvećeg interesa), postoji negativan statistički odnos između 0 i 1 (povećanje 1 dovodi do smanjenja 0).

Nakon što se korelacionom analizom otkrije postojanje statističkih veza između varijabli i procijeni stepen njihove bliskosti, obično se prelazi na matematički opis određene vrste zavisnosti pomoću regresione analize. U tu svrhu odabrana je klasa funkcija koja povezuje rezultantni indikator y i argumente x 1, x 2, ..., x k, odabiru se najinformativniji argumenti, procjene nepoznatih vrijednosti parametara izračunavaju se komunikacijska jednačina i analiziraju svojstva rezultirajuće jednačine.

Funkcija f(x 1, x 2,..., x k) koja opisuje ovisnost prosječne vrijednosti rezultantne karakteristike y o datim vrijednostima argumenata naziva se regresijska funkcija (jednačina). Termin “regresija” (lat. -regression - povlačenje, povratak na nešto) uveo je engleski psiholog i antropolog F. Galton i vezuje se isključivo za specifičnosti jednog od prvih konkretnim primjerima, u kojem je korišten ovaj koncept. Dakle, obrađujući statističke podatke u vezi sa analizom naslijeđa visine, F. Galton je otkrio da ako očevi odstupaju od prosječne visine svih očeva za x inča, onda njihovi sinovi odstupaju od prosječne visine svih sinova za manje od x inches. Identificirani trend nazvan je "regresija na srednju vrijednost". Od tada se termin „regresija“ široko koristi u statističkoj literaturi, iako u mnogim slučajevima ne karakteriše tačno koncept statističke zavisnosti.

Za tačan opis jednačine regresije potrebno je poznavati zakon raspodjele efektivnog indikatora y. U statističkoj praksi se obično mora ograničiti na traženje odgovarajućih aproksimacija za nepoznatu pravu regresijsku funkciju, budući da istraživač nema precizno znanje o zakonu uslovne distribucije vjerovatnoće analiziranog rezultantnog indikatora y pri date vrednosti argument x.

Razmotrimo odnos između prave f(x) = M(y1x), regresije modela? i procjena regresije y. Neka je efektivni indikator y povezan sa argumentom x relacijom:

gdje je slučajna varijabla koja ima normalan zakon raspodjele, a Me = 0 i D e = y 2. Prava regresijska funkcija u ovom slučaju ima oblik: f (x) = M(y/x) = 2x 1.5.

Pretpostavimo da ne znamo tačan oblik prave regresione jednadžbe, ali imamo devet zapažanja dvodimenzionalne slučajne varijable povezane relacijom yi = 2x1,5 + e, i predstavljenih na Sl. 1

Slika 1 – Relativni položaj istine f (x) i teorijske? regresijski modeli

Položaj tačaka na sl. 1 vam omogućava da se ograničite na klasu linearne zavisnosti vrsta? = u 0 + u 1 x. Koristeći metodu najmanjih kvadrata, nalazimo procjenu regresione jednadžbe y = b 0 + b 1 x. Za poređenje, na sl. 1 prikazuje grafikone prave regresijske funkcije y = 2x 1.5, teoretske aproksimativne regresijske funkcije? = u 0 + u 1 x .

Budući da smo pogriješili u odabiru klase regresijske funkcije, a to je prilično uobičajeno u praksi statističkih istraživanja, naši statistički zaključci i procjene će se pokazati pogrešnim. I bez obzira koliko povećamo obim opažanja, naša procjena uzorka y neće biti blizu pravoj regresionoj funkciji f (x). Ako smo ispravno odabrali klasu regresijskih funkcija, onda je nepreciznost u opisu f(x) korištenjem? može se objasniti samo ograničenom veličinom uzorka.

Da bi se na najbolji način vratila, iz originalnih statističkih podataka, uslovna vrijednost efektivnog indikatora y(x) i nepoznata regresijska funkcija f(x) = M(y/x), najviše se koriste sljedeći kriteriji adekvatnosti (funkcije gubitka). često korišteni.

Metoda najmanjeg kvadrata. Prema tome, kvadrat odstupanja posmatranih vrednosti efektivnog indikatora y, (i = 1,2,..., n) od vrednosti modela,? = f(x i), gdje je x i vrijednost vektora argumenta u i-to zapažanje: ?(y i - f(x i) 2 > min. Rezultirajuća regresija se naziva srednji kvadrat.

Metoda najmanjih modula. Prema njemu, zbir apsolutnih odstupanja posmatranih vrijednosti efektivnog indikatora od modularnih vrijednosti je minimiziran. I dobijamo,? = f(x i), srednja apsolutna medijana regresije? |y i - f(x i)| >min.

Regresiona analiza je metoda Statistička analiza zavisnost slučajne varijable y od varijabli x j = (j=1,2,..., k), koje se u regresionoj analizi smatraju neslučajnim varijablama, bez obzira na pravi zakon raspodjele x j.

Obično se pretpostavlja da slučajna varijabla y ima normalan zakon distribucije sa uslovnim očekivanjem y, koje je funkcija argumenata x/ (/ = 1, 2,..., k) i konstantnom varijansom y 2 nezavisno od argumente.

Općenito, model analize linearne regresije ima oblik:

Y = Y k j=0 V j ts j(x 1 , x 2 . . .. ,x k)+E

gdje je q j neka funkcija njegovih varijabli - x 1, x 2. . .. ,x k, E je slučajna varijabla sa nultim matematičkim očekivanjem i varijansom y 2.

U regresionoj analizi, tip regresione jednačine se bira na osnovu fizičke prirode fenomena koji se proučava i rezultata posmatranja.

Procjene nepoznatih parametara regresijske jednadžbe se obično pronalaze korištenjem metode najmanjih kvadrata. U nastavku ćemo se detaljnije zadržati na ovom problemu.

Dvodimenzionalno linearna jednačina regresija. Pretpostavimo, na osnovu analize fenomena koji se proučava, da na „prosječnom“ y ima linearna funkcija od x, tj. postoji jednačina regresije

y=M(y/x)=u 0 + u 1 x)

gdje je M(y1x) uslovno matematičko očekivanje slučajne varijable y za dati x; kod 0 i kod 1 - nepoznati parametri opšte populacije, koji se moraju proceniti na osnovu rezultata posmatranja uzorka.

Pretpostavimo da je za procjenu parametara na 0 i na 1, uzorak veličine n uzet iz dvodimenzionalne populacije (x, y), gdje je (x, y,) rezultat i-te opservacije (i = 1 , 2,..., n) . U ovom slučaju, model regresione analize ima oblik:

y j = in 0 + in 1 x+e j .

gdje su e j nezavisne normalno raspoređene slučajne varijable sa nultim matematičkim očekivanjem i varijansom y 2, tj. M e j. = 0;

D e j .= y 2 za sve i = 1, 2,..., n.

Prema metodi najmanjih kvadrata, kao procjene nepoznatih parametara na 0 i na 1, treba uzeti takve vrijednosti karakteristika uzorka b 0 i b 1 koje minimiziraju zbir kvadrata odstupanja vrijednosti rezultante karakteristika za i iz uslovnog matematičkog očekivanja? i

Razmotrićemo metodologiju za utvrđivanje uticaja marketinških karakteristika na dobit preduzeća na primeru sedamnaest tipičnih preduzeća prosečne veličine i pokazatelja ekonomske aktivnosti.

Prilikom rješavanja problema uzete su u obzir sljedeće karakteristike, koje su kao najznačajnije (bitnije) identificirane kao rezultat anketnog istraživanja:

* inovativna aktivnost preduzeća;

* planiranje asortimana proizvoda;

* formiranje politike cijena;

* javni odnosi;

* sistem prodaje;

* sistem stimulacije zaposlenih.

Na osnovu sistema poređenja po faktorima konstruisane su kvadratne matrice susednosti u kojima su izračunate vrednosti relativnih prioriteta za svaki faktor: inovativna aktivnost preduzeća, planiranje asortimana proizvoda, formiranje politike cena, oglašavanje , odnosi s javnošću, sistem prodaje, sistem stimulacije zaposlenih.

Procjene prioriteta za faktor „odnos sa javnošću“ dobijene su kao rezultat anketiranja stručnjaka preduzeća. Prihvaćene su sljedeće oznake: > (bolje), > (bolje ili isto), = (isto),< (хуже или одинаково), <

Zatim je riješen zadatak sveobuhvatne procjene nivoa marketinga preduzeća. Prilikom izračunavanja indikatora utvrđena je značajnost (težina) razmatranih parcijalnih karakteristika i riješen problem linearne konvolucije parcijalnih indikatora. Obrada podataka obavljena je pomoću posebno razvijenih programa.

Zatim se izračunava sveobuhvatna procena nivoa marketinga preduzeća – marketinški koeficijent, koji se unosi u tabelu 1. Pored toga, tabela sadrži indikatore koji karakterišu preduzeće u celini. Podaci u tabeli će se koristiti za izvođenje regresijske analize. Rezultirajući atribut je profit. Uz marketinški koeficijent, kao faktorske karakteristike korišteni su sljedeći pokazatelji: obim bruto proizvodnje, cijena osnovnih sredstava, broj zaposlenih, koeficijent specijalizacije.

Tabela 1 - Početni podaci za regresionu analizu


Prema podacima iz tabele i na osnovu faktora sa najznačajnijim vrednostima koeficijenata korelacije, konstruisane su regresione funkcije zavisnosti profita od faktora.

Jednačina regresije u našem slučaju će imati oblik:

Koeficijenti regresione jednačine pokazuju kvantitativni uticaj faktora o kojima je gore bilo reči na iznos dobiti. Oni pokazuju za koliko hiljada rubalja se mijenja njegova vrijednost kada se karakteristika faktora promijeni za jednu jedinicu. Kao što slijedi iz jednačine, povećanje koeficijenta marketing miksa za jednu jedinicu daje povećanje dobiti za 1547,7 hiljada rubalja. Ovo sugeriše da unapređenje marketinških aktivnosti ima ogroman potencijal za poboljšanje ekonomskog učinka preduzeća.

Prilikom proučavanja marketinške efikasnosti, najzanimljiviji i najvažniji faktor je faktor X5 – marketinški koeficijent. U skladu sa teorijom statistike, prednost postojeće jednačine višestruke regresije je mogućnost procene izolovanog uticaja svakog faktora, uključujući i faktor marketinga.

Rezultati regresione analize imaju širu primjenu nego za izračunavanje parametara jednačine. Kriterijum za razvrstavanje (Kef) preduzeća u relativno bolja ili relativno lošija zasniva se na relativnom pokazatelju rezultata:

gde je Y facti stvarna vrednost i-tog preduzeća, hiljada rubalja;

Y izračunati - iznos dobiti i-tog preduzeća, dobijen obračunom pomoću regresione jednačine

U smislu problema koji se rješava, vrijednost se naziva “koeficijent efikasnosti”. Djelatnost preduzeća može se smatrati efektivnom u slučajevima kada je vrijednost koeficijenta veća od jedan. To znači da je stvarna dobit veća od prosječne dobiti u uzorku.

Stvarne i procijenjene vrijednosti dobiti prikazane su u tabeli. 2.

Tabela 2 – Analiza rezultirajuće karakteristike u regresijskom modelu

Analiza tabele pokazuje da se u našem slučaju aktivnosti preduzeća 3, 5, 7, 9, 12, 14, 15, 17 za posmatrani period mogu smatrati uspješnim.

Metoda regresijske analize koristi se za određivanje tehničkih i ekonomskih parametara proizvoda koji pripadaju određenoj parametarskoj seriji kako bi se izgradili i uskladili vrijednosni odnosi. Ova metoda se koristi za analizu i opravdavanje odnosa nivoa i cijena proizvoda koje karakterizira prisustvo jednog ili više tehničkih i ekonomskih parametara koji odražavaju glavna potrošačka svojstva. Regresiona analiza nam omogućava da pronađemo empirijsku formulu koja opisuje ovisnost cijene o tehničkim i ekonomskim parametrima proizvoda:

P=f(X1X2,...,Xn),

gdje je P vrijednost jedinične cijene proizvoda, rub.; (X1, X2, ... Xn) - tehnički i ekonomski parametri proizvoda.

Metoda regresione analize - najnaprednija od normativno-parametarskih metoda koja se koristi - efikasna je kada se izvode proračuni zasnovani na upotrebi savremenih informacionih tehnologija i sistema. Njegova primjena uključuje sljedeće glavne korake:

  • određivanje klasifikacijskih parametarskih grupa proizvoda;
  • izbor parametara koji najviše utiču na cenu proizvoda;
  • izbor i opravdanje oblika povezanosti promjena cijena pri promjeni parametara;
  • izrada sistema normalnih jednačina i proračun regresionih koeficijenata.

Glavna kvalifikaciona grupa proizvoda čija je cijena podložna izjednačavanju je parametarska serija, u okviru koje se proizvodi mogu grupirati u različite izvedbe u zavisnosti od njihove primjene, uslova rada i zahtjeva itd. Prilikom formiranja parametarskih serija koriste se metode automatske klasifikacije. mogu se koristiti, što omogućava razlikovanje homogenih grupa od ukupne mase proizvoda. Odabir tehničkih i ekonomskih parametara vrši se na osnovu sljedećih osnovnih zahtjeva:

  • odabrani parametri uključuju parametre evidentirane u standardima i tehničkim specifikacijama; pored tehničkih parametara (snaga, nosivost, brzina itd.), koriste se indikatori serijalizacije proizvoda, koeficijenti složenosti, unifikacije itd.;
  • skup odabranih parametara trebao bi dovoljno u potpunosti karakterizirati dizajn, tehnološka i operativna svojstva proizvoda uključenih u seriju i imati prilično blisku korelaciju s cijenom;
  • parametri ne bi trebali biti međusobno zavisni.

Za odabir tehničkih i ekonomskih parametara koji značajno utječu na cijenu izračunava se matrica koeficijenata korelacije parova. Na osnovu veličine koeficijenata korelacije između parametara može se suditi o bliskosti njihove povezanosti. Istovremeno, korelacija blizu nule pokazuje neznatan uticaj parametra na cenu. Konačan odabir tehničko-ekonomskih parametara vrši se u procesu regresione analize korak po korak uz korištenje računarske tehnologije i odgovarajućih standardnih programa.

U praksi određivanja cijena koristi se sljedeći skup funkcija:

linearno

P = ao + alXl + ... + antXn,

linearne snage

P = ao + a1X1 + ... + anXn + (an+1Xn) (an+1Xn) +... + (an+nXn2) (an+nXn2)

inverzni logaritam

P = a0 + a1: U X1 + ... + an: U Xn,

moć

P = a0 (X1^a1) (X2^a2) .. (Xn^an)

indikativno

P = e^(a1+a1X1+...+anXn)

hiperbolično

P = ao + a1:X1 + a2:X2 + ... + ap:Xn,

gdje je P izjednačavanje cijena; X1 X2,..., Xn - vrijednost tehničkih i ekonomskih parametara proizvoda serije; a0, a1 ..., an - izračunati koeficijenti regresione jednačine.

U praktičnom radu na određivanju cijena, ovisno o obliku odnosa cijena i tehničko-ekonomskih parametara, mogu se koristiti i druge regresijske jednačine. Tip funkcije veze između cijene i skupa tehničko-ekonomskih parametara može se unaprijed postaviti ili odabrati automatski tokom kompjuterske obrade. Bliskost korelacije između cijene i skupa parametara ocjenjuje se vrijednošću koeficijenta višestruke korelacije. Njegova blizina jednom ukazuje na blisku vezu. Pomoću regresijske jednadžbe dobijaju se izjednačene (izračunate) vrijednosti cijena za proizvode date parametarske serije. Za procjenu rezultata izjednačavanja izračunavaju se relativne vrijednosti odstupanja izračunatih vrijednosti cijena od stvarnih:

Tsr = Rf - Rr: R x 100

gdje je Rf, Rr - stvarne i obračunate cijene.

Vrijednost CR ne bi trebala prelaziti 8-10%. U slučaju značajnih odstupanja izračunatih vrijednosti od stvarnih, potrebno je istražiti:

  • ispravnost formiranja parametarske serije, jer može sadržavati proizvode koji se po svojim parametrima oštro razlikuju od ostalih proizvoda u seriji. Moraju biti isključeni;
  • ispravan odabir tehničkih i ekonomskih parametara. Moguć je skup parametara koji je u slaboj korelaciji sa cijenom. U tom slučaju potrebno je nastaviti pretraživanje i odabir parametara.

Postupak i metodologija izvođenja regresione analize, pronalaženja nepoznatih parametara jednačine i ekonomska procjena dobijenih rezultata sprovode se u skladu sa zahtjevima matematičke statistike.

Povratak

×
Pridružite se zajednici parkvak.ru!
U kontaktu sa:
Već sam pretplaćen na zajednicu “parkvak.ru”