T4 Regressie-analyse, T4.1 Enkelvoudige regressie-analyse Flashcards

(71 cards)

1
Q

Wat is het doel van regressieanalyse?

A

Het doel van regressieanalyse is om op basis van de waarde op de ene variabele een voorspelde waarde op de andere variabele te berekenen en tegelijkertijd een indruk te geven van hoe accuraat die voorspelling zal zijn.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wat is een regressielijn en wat vertegenwoordigt het?

A

Een regressielijn geeft de beste voorspelling weer van de ene variabele door de andere variabele. Het vertegenwoordigt de lijn die gemiddeld voor alle punten het “dichtst” in de buurt ligt van de daadwerkelijk geobserveerde waarden van de afhankelijke variabele.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wat zijn de twee belangrijkste vragen bij regressieanalyse?

A

De twee belangrijkste vragen bij regressieanalyse zijn: hoe vinden we de beste lijn in een willekeurige puntenwolk, en hoe goed past deze lijn bij de data?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Hoe worden regressielijnen beïnvloed door de steilheid en richting?

A

De steilheid en richting van regressielijnen worden beïnvloed door de mate van correlatie tussen de variabelen. Een steilere lijn duidt op een sterker verband tussen de variabelen, terwijl de richting aangeeft of het verband positief of negatief is.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Hoe wordt de beste voorspelling berekend met behulp van een regressielijn?

A

De beste voorspelling wordt berekend door het kruispunt van de regressielijn met de verticale lijn die over de bekende waarde van de onafhankelijke variabele loopt. Dit geeft de voorspelde waarde van de afhankelijke variabele.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wat vertegenwoordigt het intercept in een regressiemodel?

A

Het intercept in een regressiemodel vertegenwoordigt de voorspelde waarde van de afhankelijke variabele wanneer de waarde van de onafhankelijke variabele(n) gelijk is aan nul.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wat is extrapolatie en interpolatie in de context van regressieanalyse?

A

Extrapolatie is het berekenen van voorspellingen voor waarden buiten het bereik van de data waarop het regressiemodel gebaseerd is, zoals het voorspellen van een waarde bij een predictorvariabele die buiten het bereik van de oorspronkelijke data ligt. Interpolatie daarentegen is het gebruik van een model om tussenliggende waarden te berekenen binnen het bereik van de oorspronkelijke data.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Waarom kan het voorspelde gewicht van een pinguïn negatief zijn volgens het regressiemodel?

A

Het voorspelde gewicht van een pinguïn kan negatief zijn volgens het regressiemodel vanwege extrapolatie, waarbij de regressielijn wordt doorgetrokken tot de waarde 0 op de x-as, hoewel dit niet fysiek mogelijk is. Echter, dit heeft geen praktische relevantie omdat het model alleen wordt gebruikt voor bestaande pinguïns waarvoor extrapolatie niet nodig is.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wat wordt bedoeld met de intercepten van een regressiemodel?

A

De intercepten van een regressiemodel zijn de waarden van de afhankelijke variabele wanneer alle onafhankelijke variabelen gelijk zijn aan nul. Deze waarden worden aangeduid als de intercepten en zijn de eerste regressiecoëfficiënten in het model, aangeduid als β0, B0 of b0.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wat vertegenwoordigt de hellingscoëfficiënt in een regressiemodel?

A

De hellingscoëfficiënt (β1) in een regressiemodel geeft aan hoeveel de afhankelijke variabele op de y-as verandert als de onafhankelijke variabele op de x-as met één eenheid toeneemt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Hoe wordt de helling van de regressielijn geïllustreerd?

A

De helling van de regressielijn wordt geïllustreerd door de groei van de variabele op de y-as als de variabele op de x-as met één eenheid toeneemt. Dit wordt weergegeven door het verschil tussen het voorspelde gewicht (of de voorspelde snavelhoogte) en het intercept.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hoe wordt de formule voor het voorspellen van de afhankelijke variabele uit de onafhankelijke variabele(n) in een regressiemodel opgesteld?

A

De formule voor het voorspellen van de afhankelijke variabele uit de onafhankelijke variabele(n) in een regressiemodel is ^y = β0 + β1x1, waarbij ^y de voorspelde waarde van de afhankelijke variabele is, β0 het intercept is, β1 de hellingscoëfficiënt is en x1 de waarde van de onafhankelijke variabele.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hoe wordt de helling van de regressielijn berekend in een regressiemodel?

A

De helling van de regressielijn wordt berekend als de toename of afname van de afhankelijke variabele op de y-as voor elke toename van één eenheid van de onafhankelijke variabele op de x-as. In formules wordt dit weergegeven als de waarde van de hellingscoëfficiënt (β1) in het regressiemodel.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wat is een dichotome voorspeller in regressieanalyse?

A

Een dichotome voorspeller is een variabele die slechts twee waarden kan aannemen, zoals ja/nee, man/vrouw, etc.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wat is dummycodering en waarom wordt het gebruikt bij dichotome voorspellers in regressieanalyse?

A

Dummycodering is het toekennen van numerieke waarden aan de categorieën van een dichotome voorspeller, meestal 0 en 1. Het wordt gebruikt om categorische variabelen met slechts twee categorieën in regressieanalyse te kunnen gebruiken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Hoe worden de regressiecoëfficiënten geïnterpreteerd bij een dichotome voorspeller in regressieanalyse?

A

Bij een dichotome voorspeller in regressieanalyse is het intercept gelijk aan de voorspelde waarde voor de groep met de waarde 0 van de dichotome voorspeller. De helling van de regressielijn is het verschil tussen de gemiddelde waarden van de afhankelijke variabele voor de twee categorieën van de dichotome voorspeller.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Hoe wordt de helling van de regressielijn berekend voor een dichotome voorspeller in regressieanalyse?

A

De helling van de regressielijn voor een dichotome voorspeller in regressieanalyse wordt berekend als het verschil tussen de gemiddelde waarden van de afhankelijke variabele voor de twee categorieën van de dichotome voorspeller.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Welke statistische methode wordt vaak gebruikt voor het analyseren van het verband tussen een dichotome voorspeller en een continue variabele, in plaats van regressieanalyse?

A

Voor het analyseren van het verband tussen een dichotome voorspeller en een continue variabele wordt vaak de variantieanalyse (ANOVA) gebruikt in plaats van regressieanalyse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wat is het verschil tussen correlatieanalyse en regressieanalyse?

A

Correlatieanalyse onderzoekt de relatie tussen twee variabelen zonder een causaal verband aan te geven, terwijl regressieanalyse asymmetrisch is en een voorspellingsmodel produceert waarbij de waarde van de ene variabele wordt voorspeld op basis van de waarde van de andere variabele.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Wat is het verschil tussen de predictorvariabele en de afhankelijke variabele in regressieanalyse?

A

De predictorvariabele (vaak aangeduid als

x) is de variabele die wordt gebruikt om de waarde van de afhankelijke variabele (vaak aangeduid als

y) te voorspellen. De afhankelijke variabele is de variabele die wordt voorspeld op basis van de predictorvariabele.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Wat is het statistische structurele model bij enkelvoudige regressieanalyse?

A

Het statistische structurele model bij enkelvoudige regressieanalyse bestaat uit twee variabelen: de predictorvariabele

x en de afhankelijke variabele

y. Dit wordt weergegeven door een ellips met label

x aan de linkerkant en een ellips met label

y aan de rechterkant, met een pijl die van de linker naar de rechter ellips loopt om het causale verband aan te geven.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Wat is de proportie verklaarde variantie in regressieanalyse en hoe wordt deze aangeduid?

A

De proportie verklaarde variantie, aangeduid als R^2
, geeft aan hoeveel van de variantie van de afhankelijke variabele wordt verklaard door de predictorvariabele(s) in het regressiemodel. Het kan waarden aannemen van 0 tot en met 1, waarbij hogere waarden aangeven dat een groter deel van de variantie wordt verklaard.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Wat betekent een R^2 van 1 in regressieanalyse?

A

Een R^2 van 1 betekent dat alle geobserveerde scores exact op een rechte lijn liggen en dat de afhankelijke variabele perfect voorspeld kan worden uit de predictorvariabele(s). Met andere woorden, de predictorvariabele verklaart 100% van de variantie in de afhankelijke variabele.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Hoe wordt de R^2 berekend in enkelvoudige regressieanalyse?

A

In enkelvoudige regressieanalyse is de R^2
gelijk aan het kwadraat van de correlatie tussen de predictor- en de afhankelijke variabele. Dit geeft aan welk deel van de variantie in de afhankelijke variabele wordt verklaard door de predictorvariabele.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Waarom is het belangrijk om betrouwbaarheidsintervallen te berekenen in regressieanalyse?
Het is belangrijk om betrouwbaarheidsintervallen te berekenen omdat deze aangeven hoeveel ruis er in de data aanwezig is als gevolg van steekproeftoeval en meetfouten. Deze betrouwbaarheidsintervallen helpen onderzoekers bij het interpreteren van de resultaten en het maken van uitspraken over de populatie.
26
Welke steekproevenverdeling wordt gebruikt voor de parameters b0 en b1 in een regressiemodel?
Voor de parameters b0 en b1 in een regressiemodel wordt de t-verdeling gebruikt.
27
Wat is het verschil tussen de t-verdeling en de z-verdeling?
De t-verdeling is een variant van de z-verdeling die is aangepast voor kleine steekproeven. Voor grote steekproeven zijn beide verdelingen praktisch niet te onderscheiden.
28
Hoe worden de vrijheidsgraden van de t-verdeling berekend in regressieanalyse?
De vrijheidsgraden van de t-verdeling in regressieanalyse worden berekend als het aantal deelnemers in de steekproef minus het totale aantal regressiecoëfficiënten.
29
Waarom is het beter om standaard met de t-verdeling te werken in plaats van de z-verdeling in regressieanalyse?
Het is beter om standaard met de t-verdeling te werken omdat deze geen subjectief oordeel vereist over de vraag of een steekproef 'groot genoeg' is, in tegenstelling tot de z-verdeling.
30
Welke verdeling wordt gebruikt om de p-waarde voor R^2 te berekenen in regressieanalyse en waarom?
De F-verdeling wordt gebruikt om de p-waarde voor R^2 te berekenen in regressieanalyse, omdat R^2 de proportie verklaarde variantie is en de F-verdeling wordt gebruikt voor nulhypothese-significantietoetsing om de kans op de gevonden R^2 te bepalen als de voorspeller in de populatie geen samenhang vertoont met de voorspelde variabele.
31
Wat is de steekproefwaarde in de formule voor het betrouwbaarheidsinterval van een regressiecoëfficiënt?
De steekproefwaarde is de puntschatting voor de regressiecoëfficiënt uit de steekproef.
32
Wat is de breedte-index in de formule voor het betrouwbaarheidsinterval van een regressiecoëfficiënt?
De breedte-index is afkomstig uit de t-verdeling. Voor een 95%-betrouwbaarheidsinterval is de breedte-index de t-waarde waarvoor geldt dat slechts 2.5% van de t-waarden hoger is.
33
Hoe wordt de standaardfout berekend voor het betrouwbaarheidsinterval van een regressiecoëfficiënt?
De standaardfout wordt gegeven door statistische software.
34
Hoe beïnvloedt de grootte van de steekproef de breedte van het betrouwbaarheidsinterval voor een regressiecoëfficiënt?
Hoe groter de steekproef is, hoe kleiner de standaardfout. Dit betekent dat de betrouwbaarheidsintervallen smaller worden naarmate de steekproef groter is, waardoor de regressiecoëfficiënten accurater worden geschat.
35
Wat is de nulhypothese bij het testen van een regressiecoëfficiënt?
De nulhypothese bij het testen van een regressiecoëfficiënt is dat er in de populatie geen verband is tussen de twee variabelen, wat betekent dat de populatie regressiecoëfficiënt gelijk is aan 0.
36
Wat wordt bedoeld met de steekproevenverdeling van een regressiecoëfficiënt?
De steekproevenverdeling van een regressiecoëfficiënt is de verdeling van alle mogelijke regressiecoëfficiënten die gevonden kunnen worden in steekproeven, onder de aanname dat er in de populatie geen verband is tussen de twee variabelen.
37
Hoe worden p-waarden berekend bij het testen van een regressiecoëfficiënt?
De p-waarden worden berekend door de proportie van de nulhypothese-steekproevenverdeling te bepalen die overeenkomt met regressiecoëfficiënten gelijk aan of extremer dan die in de steekproef.
38
Hoe worden p-waarden geïnterpreteerd bij nulhypothese-significantietoetsing?
p-waarden lager dan 0.05 worden over het algemeen geïnterpreteerd als aanwijzing dat het verband waar de p-waarde betrekking op heeft, in de populatie ongelijk is aan 0, wat leidt tot het verwerpen van de nulhypothese.
39
Wat wordt bedoeld met het intercept in een regressievergelijking?
Het intercept in een regressievergelijking is de waarde van de afhankelijke variabele wanneer de predictorvariabele een waarde van 0 heeft. Het geeft dus het gemiddelde van de afhankelijke variabele weer bij afwezigheid van de predictorvariabele.
40
Wat wordt bedoeld met de regressiecoëfficiënt in een regressievergelijking?
De regressiecoëfficiënt in een regressievergelijking geeft de mate aan waarin de afhankelijke variabele verandert bij een verandering van één eenheid in de predictorvariabele. Een positieve coëfficiënt geeft een positieve relatie aan, terwijl een negatieve coëfficiënt een negatieve relatie aangeeft tussen de variabelen.
41
Wat is het doel van een regressievergelijking?
Het doel van een regressievergelijking is om voorspellingen te doen over de waarden van de afhankelijke variabele op basis van de waarden van de predictorvariabele(n). Dit wordt bereikt door het vinden van de beste passende lijn door de gegeven data, waarbij de voorspelde waarden zo dicht mogelijk bij de werkelijke waarden liggen.
42
Hoe wordt het intercept geïnterpreteerd in een regressievergelijking?
Het intercept wordt geïnterpreteerd als de verwachte waarde van de afhankelijke variabele wanneer de predictorvariabele een waarde van 0 heeft. In sommige gevallen kan het intercept echter geen zinvolle interpretatie hebben, zoals wanneer de waarde 0 van de predictorvariabele niet voorkomt in de gegevens.
43
Wat is het doel van een betrouwbaarheidsinterval in een regressieanalyse?
Het betrouwbaarheidsinterval geeft een schatting van het bereik waarbinnen de ware waarde van een regressiecoëfficiënt met een bepaalde betrouwbaarheid ligt. Het wordt gebruikt om de nauwkeurigheid van de schattingen van regressiecoëfficiënten te beoordelen.
44
Wat is de betekenis van de R^2 (R-kwadraat) in een regressieanalyse?
De R^2 (R-kwadraat) geeft het percentage van de variantie in de afhankelijke variabele dat wordt verklaard door de predictorvariabele(n) in het model. Het varieert van 0 tot 1, waarbij een hogere waarde aangeeft dat een groter deel van de variantie wordt verklaard door het model.
45
Wat is het verschil tussen de puntschatting van een regressiecoëfficiënt en het betrouwbaarheidsinterval ervan?
De puntschatting van een regressiecoëfficiënt is de geschatte waarde van de coëfficiënt op basis van de steekproefgegevens. Het betrouwbaarheidsinterval geeft een bereik van waarden waarbinnen de ware waarde van de coëfficiënt met een bepaalde betrouwbaarheid ligt, gebaseerd op de steekproefgegevens.
46
Wat wordt bedoeld met de p-waarde in het kader van nulhypothese-significantietoetsing (NHST)?
De p-waarde geeft de kans aan om de gevonden resultaten of extremere resultaten te verkrijgen als de nulhypothese waar is. In het geval van regressieanalyse geeft het de kans aan om de gevonden waarde van de regressiecoëfficiënt te verkrijgen als er geen verband is tussen de predictorvariabele en de afhankelijke variabele in de populatie. Kleine p-waarden duiden op significantie, wat betekent dat het verband waarschijnlijk niet het gevolg is van toeval.
47
Wat zijn gestandaardiseerde regressiecoëfficiënten en waarom zijn ze handig?
Gestandaardiseerde regressiecoëfficiënten worden verkregen door de variabelen in een regressieanalyse te standaardiseren, wat betekent dat ze worden omgezet naar z-scores (gemiddelde van 0 en standaarddeviatie van 1). Hierdoor kunnen regressiecoëfficiënten worden vergeleken tussen modellen waarbij de variabelen op verschillende schalen zijn gemeten.
48
Wat is het verschil tussen gestandaardiseerde en ruwe regressiecoëfficiënten?
Ruwe regressiecoëfficiënten worden berekend op basis van de oorspronkelijke meeteenheden van de variabelen, terwijl gestandaardiseerde regressiecoëfficiënten worden berekend op basis van z-scores, wat betekent dat ze onafhankelijk zijn van de oorspronkelijke meeteenheden en schaalverdelingen.
49
Waarom zijn gestandaardiseerde regressiecoëfficiënten handig bij het vergelijken van modellen?
Gestandaardiseerde regressiecoëfficiënten zijn handig bij het vergelijken van modellen omdat ze gecorrigeerd zijn voor de schaalverdeling van de variabelen. Hierdoor kunnen effectgroottes tussen modellen worden vergeleken zonder beïnvloed te worden door de oorspronkelijke meeteenheden van de variabelen.
50
Hoe worden gestandaardiseerde regressiecoëfficiënten berekend?
Gestandaardiseerde regressiecoëfficiënten worden berekend door de variabelen te standaardiseren, wat inhoudt dat het gemiddelde van elke variabele wordt afgetrokken en het resultaat wordt gedeeld door de standaarddeviatie van die variabele. Vervolgens wordt de regressieanalyse uitgevoerd met de gestandaardiseerde variabelen.
51
Wat is centreren in regressie-analyse?
Centreren in regressie-analyse is de eerste stap van standaardisatie, waarbij het gemiddelde van elke variabele wordt afgetrokken van elk datapunt. Hierdoor verandert de schaalverdeling van de variabele niet, maar wordt het gemiddelde gelijk aan 0.
52
Wat is het effect van centreren op het intercept in regressie-analyse?
Centreren van een voorspellende variabele in regressie-analyse verandert het intercept. Het intercept wordt dan de voorspelde waarde van de afhankelijke variabele voor een individu met de gemiddelde score op de gecentreerde voorspeller.
53
Waarom kan centreren van een variabele het interpretatieprobleem van het intercept oplossen?
Centreren van een variabele kan het interpretatieprobleem van het intercept oplossen omdat het intercept dan de voorspelde waarde van de afhankelijke variabele wordt voor individuen met de gemiddelde score op de gecentreerde voorspeller, waardoor het intercept interpreteerbaar wordt.
54
Wat gebeurt er met de hellingscoëfficiënt wanneer een variabele gecentreerd wordt?
Wanneer een variabele gecentreerd wordt, blijft de hellingscoëfficiënt hetzelfde. Het beschrijft nog steeds de relatie tussen de variabelen, maar het intercept wordt beïnvloed door het centreren van de voorspeller.
55
Wat drukt de asymmetrische aard van het regressiemodel uit?
De pijl in het regressiemodel die van de onafhankelijke variabele (x) naar de afhankelijke variabele (y) loopt, drukt de asymmetrische aard van het regressiemodel uit.
56
Wat impliceert de asymmetrie in regressieanalyse over causaal verband tussen variabelen?
De asymmetrie in regressieanalyse impliceert geen causaal verband tussen variabelen. Het is belangrijk te onthouden dat de termen 'effect', 'voorspelling' en 'verklaring' in de statistiek verwijzen naar verklaarde variantie en niet naar een causaal effect.
57
Waar wordt de meetfout in een asymmetrisch regressiemodel toegeschreven?
In een asymmetrisch regressiemodel wordt alle meetfout toegeschreven aan de afhankelijke variabele. Dit betekent dat de regressiecoëfficiënten zo worden berekend dat de afwijkingen tussen de regressielijn en de datapunten in de afhankelijke variabele zo klein mogelijk zijn.
58
Waarom is de aanname dat alle meetfout alleen in de afhankelijke variabele zit onrealistisch?
De aanname dat alle meetfout alleen in de afhankelijke variabele zit, is onrealistisch omdat in de meeste onderzoeken alle variabelen met meetinstrumenten worden gemeten, wat betekent dat alle variabelen meetfout kunnen bevatten.
59
Wat zijn de 'harde' aannames van een enkelvoudige regressieanalyse?
De 'harde' aannames van een enkelvoudige regressieanalyse zijn: continu meetniveau, lineariteit, onafhankelijkheid, normaliteit en homoscedasticiteit.
60
Waarom is het belangrijk dat beide variabelen in een regressieanalyse een continu meetniveau hebben?
Het is belangrijk dat beide variabelen in een regressieanalyse een continu meetniveau hebben omdat regressieanalyse is ontworpen voor variabelen met een interval- of ratio-meetniveau. Als een van de variabelen een discreet meetniveau heeft, kan een andere analysetechniek nodig zijn.
61
Wat betekent homoscedasticiteit in een regressieanalyse?
Homoscedasticiteit in een regressieanalyse betekent dat voor elke waarde van de onafhankelijke variabele, de variantie in de afhankelijke variabele gelijk is. Dit betekent dat de spreiding van de punten rond de regressielijn consistent is over het bereik van de voorspeller.
62
Wat zijn de consequenties van het schenden van de aannames van een enkelvoudige regressieanalyse?
Het schenden van de aannames van een enkelvoudige regressieanalyse kan leiden tot minder efficiënte schattingen van de regressiecoëfficiënten en de proportie verklaarde variantie. Dit kan de interpretatie van het model en de nauwkeurigheid van de voorspellingen beïnvloeden.
63
Wat zijn synoniemen voor de onafhankelijke variabele in regressieanalyse?
Synoniemen voor de onafhankelijke variabele zijn: voorspeller, predictor en covariaat.
64
Wat zijn synoniemen voor de afhankelijke variabele in regressieanalyse?
Een synoniem voor de afhankelijke variabele is criterium.
65
Wat wordt bedoeld met de proportie verklaarde variantie in regressieanalyse?
De proportie verklaarde variantie wordt aangeduid met � 2 R 2 en geeft aan welk deel van de variantie in de afhankelijke variabele wordt verklaard door de voorspellers in het regressiemodel.
66
Waar staat het Griekse karakter voor in de context van regressieanalyse?
In de context van regressieanalyse wordt het Griekse karakter � β gebruikt om te verwijzen naar de gestandaardiseerde regressiecoëfficiënten in de steekproef of naar de populatiewaarde van de ongestandaardiseerde regressiecoëfficiënt.
67
Waar staat het Latijnse karakter voor in de context van regressieanalyse?
In de context van regressieanalyse wordt het Latijnse karakter (meestal 'b' of 'B') gebruikt voor de ruwe regressiecoëfficiënten, vooral in de context van steekproefgegevens.
68
Hoe kunnen regressiecoëfficiënten met de hand worden berekend in enkelvoudige regressie?
De regressiecoëfficiënt van de helling (^B1) kan worden berekend met de formule ^B1 = (rxy*sdy)/sd2, waarbij rxy de correlatie tussen de variabelen is en sdy en sd2 en de standaarddeviaties zijn van respectievelijk de afhankelijke en de onafhankelijke variabele.
69
Waarom is het intercept altijd 0 als beide variabelen zijn gestandaardiseerd?
Als beide variabelen zijn gestandaardiseerd, zijn hun gemiddelden 0. Daarom is het intercept 0 wanneer de voorspeller 0 is, omdat de beste voorspelling van de afhankelijke variabele dan ook 0 is.
70
Doe verwerkingsopftsvhyrn 4.1!!!
71