Justerat R2 / justerat R-kvadrat: vad används det för?

Dela på

Statistikdefinitioner > justerad r2


titta på videon eller läs artikeln nedan:

vänligen acceptera statistik, marknadsföringscookies för att titta på den här videon.

behöver du hjälp med en läxfråga? Kolla in vår handledning sida!,

justerad R2: översikt

justerad R2 är en speciell form av R2, bestämningskoefficienten.

den justerade R2 har många applikationer i verkligheten. Bild: USCG

R2 visar hur bra termer (datapunkter) passar en kurva eller linje. Justerat R2 anger också hur väl villkoren passar en kurva eller linje, men justerar för antalet termer i en modell. Om du lägger till fler och fler värdelösa variabler till en modell kommer justerade r-squared att minska. Om du lägger till fler användbara variabler ökar justerade R-squared.,
justerad R2 kommer alltid att vara mindre än eller lika med R2.

Du behöver bara R2 när du arbetar med prover. Med andra ord är R2 inte nödvändigt när du har data från en hel befolkning.

formeln är:

var:

  • N är antalet punkter i dataprovet.
  • K är antalet oberoende regressorer, dvs. antalet variabler i din modell, exklusive konstanten.

om du redan vet R2 så är det en ganska enkel formel att arbeta., Men om du inte redan har R2 så vill du förmodligen inte beräkna detta för hand! (Om du måste, se hur man beräknar bestämningskoefficienten). Det finns många statistiska paket som kan beräknas justerat r kvadrat för dig. Justerat R kvadrat ges som en del av Excel regressionsutgång. Se: Excel regressionsanalys utgång förklaras.


innebörden av justerade R2

både R2 och den justerade R2 ger dig en uppfattning om hur många datapunkter som faller inom raden av regressionsekvationen., Det finns emellertid en huvudskillnad mellan R2 och den justerade R2: R2 förutsätter att varje enskild variabel förklarar variationen i den beroende variabeln. Den justerade R2 anger den procentuella variationen som förklaras av endast de oberoende variabler som faktiskt påverkar den beroende variabeln.

hur justerad R2 straffar dig

den justerade R2 kommer att straffa dig för att du lägger till oberoende variabler (K i ekvationen) som inte passar modellen. Varför? I regressionsanalys kan det vara frestande att lägga till fler variabler till data som du tycker om dem., Några av dessa variabler kommer att vara betydande, men du kan inte vara säker på att betydelsen bara är av en slump. Den justerade R2 kommer att kompensera för detta genom att straffa dig för de extra variablerna.

medan värdena vanligtvis är positiva kan de också vara negativa. Detta kan hända om din R2 är noll; efter justeringen kan värdet doppa under noll. Detta indikerar vanligtvis att din modell är en dålig passform för dina data. Andra problem med din modell kan också orsaka sub-zero värden, som att inte sätta en konstant term i din modell.,

problem med R2 som korrigeras med en justerad R2

  1. R2 ökar med varje prediktor som läggs till i en modell. Eftersom R2 alltid ökar och aldrig minskar kan det tyckas vara en bättre passform med de fler termer du lägger till i modellen. Detta kan vara helt vilseledande.
  2. på samma sätt, om din modell har för många termer och för många högorderspolynom kan du stöta på problemet med att övermontera data. När du överbelastar data kan ett vilseledande högt R2-värde leda till vilseledande prognoser.,

——————————————————————————

behöver du hjälp med en läxa eller testfråga? Med Chegg Study kan du få steg-för-steg-lösningar på dina frågor från en expert på området. Din första 30 minuter med en Chegg handledare är gratis!

Share

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *