In het zelfstudie document is het fundament van lineair model behandeld. Opgaven 1 en 2 van dit werkcollege laten we je oefenen met de theorie aan de hand van R uitdraai. In opgaven 3 en 4 ga je zelf analyse in R doen.
We gebruiken steeds de stappen van data analyse zoals beschreven in PSLS:
State. Wat is de onderzoeksvraag? Geef de praktische context erbij.
Plan. Welke specifieke statistische handelingen/berekeningen hebben we nodig? Wanneer we toetsen, noemen we hier expliciet de nul- en alternatieve hypotheses.
Solve. Gebruik geschikte visualisaties en/of berekeningen om de vraag te beantwoorden. Bij het toetsen (met betrouwbaarheidsinterval of p-waarde), checken we eerst (zo mogelijk) de aannames voor inferentie.
Conclude. Geef je conclusie in de context van de onderzoeksvraag.
In een klinische studie is onderzocht of een geneesmiddel een bloeddrukverlagende werking heeft. Daartoe werd van een aantal patiënten onder andere de duur van de hypotensie (RT in minuten) vastgesteld. De patiënten zijn op basis van het type operatie in twee groepen verdeeld: ‘geen thoraxoperatie’ (groep 1 (=N), n=20) en ‘wel thoraxoperatie’ (groep 2 (=T), n=13). Hieronder is de relatie weergegeven tussen RT en systolische bloeddruk (SBP) voor groep N en groep T.

Voor groep N (geen thoraxoperatie) is de vergelijking voor de regressielijn RT = -13.324 + 0.480·SBP; voor groep T (thoraxoperatie) is de vergelijking voor de regressielijn RT = 85.948 – 0.865·SBP.
a. Bespreek de verschillen tussen de intercepten en de richtingscoëfficiënten van de twee regressielijnen.
De twee regressielijnen zijn tegengesteld in richting, waardoor de tekens van de richtingscoëfficiënten verschillen. Ook de as-afsneden (waarde van y voor x=0) verschillen van teken.
b. Wat is het teken van de Pearson correlatiecoëfficiënt voor de N groep? En de T groep?
groep N: +, groep T: - (dezelfde tekens als de richtingscoëfficiënten)
c. Bereken voor beide groepen de verwachte RT als SBP gelijk is aan 70 mm Hg.
groep N: verwachte RT = -13.324 + 0.480·70 = 20.28 min;
groep T: verwachte RT = 85.948 – 0.865·70 = 25.40 min.
d. Wat is in beide groepen de verwachte verandering in RT als SBP toeneemt met 5 mm Hg?
groep N: verwachte verandering in RT is 5 × 0.48 = 2.4 min; groep T: verwachte verandering in RT is 5 × (-0.865) = -4.325 min.
e. Voor groep T is de regressiecoëfficiënt –0.865 met se=0.623. Formuleer de nulhypothese voor de toets op lineair verband. Voer de toets uit met een tweezijdige α=0.05 en geef de bijbehorende p-waarde (gebruik de t-tabel om dit te schatten).
H₀: β = 0 vs. H₁: β ≠ 0
t = (-0.865-0) / 0.623 = -1.39 met 11 d.f., 0.10 < p < 0.20
f. Formuleer je conclusie in begrijpelijk Nederlands.
Er is geen significant (lineair) verband tussen RT en SBP in groep T, of: we hebben onvoldoende bewijs voor een (lineair) verband tussen RT en SBP in groep T.
g. Bereken met de gegevens uit onderdeel e. het 95%-betrouwbaarheidsinterval voor de regressiecoëfficiënt in de populatie.
-0.865 ± 2.201 × 0.623; 95% BHI voor β: [-2.24; 0.51]
Het 95% BHI bevat de waarde 0, dus H₀ wordt niet verworpen.
h. Lees uit onderstaande uitvoer de vergelijking van de lijn voor groep T.
> Tlm <- lm(RT~SBP, data=T)
> summary(Tlm)
Call:
lm(formula = RT ~ SBP, data = T)
Residuals:
Min 1Q Median 3Q Max
-24.075 -14.294 1.299 10.789 34.467
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 85.9478 41.2296 2.085 0.0612 .
SBP -0.8645 0.6232 -1.387 0.1928
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 17.55 on 11 degrees of freedom
Multiple R-squared: 0.1489, Adjusted R-squared: 0.07152
F-statistic: 1.924 on 1 and 11 DF, p-value: 0.1928
Zoals hierboven gegeven: RT = 85.948 – 0.865·SBP
i. Lees ook de p-waarde af voor de toets op regressie voor groep T, en vergelijk die met je p-waarde in onderdeel e.
p = 0.1928, dit is inderdaad tussen 0.10 en 0.20
j. Kun je uit de uitvoer de correlatiecoëfficiënt vinden/berekenen?
De ‘Multiple R-squared’ is gelijk aan de correlatiecoëfficiënt in het kwadraat. R² = 0.1489, √R² = √0.1489 = 0.386. Maar het verband is negatief! Dus r = -0.386.
k. Wat zijn de voorwaarden bij een regressie analyse en hoe kun je die controleren?
De voorwaarden zijn:
Aanname 1 kun je controleren met een spreidingsdiagram van Y tegenover x vooraf, maar ook met een ‘residuen plot’ (spreidingsdiagram van residuen tegenover x); is er geen patroon in de relatie tussen de residuen en x dan is het verband min of meer lineair in je steekproef. Ook aanname 4 kun je controleren met de residuen plot: als de residuen rondom de nullijn redelijk willekeurig verspreid liggen en de spreiding constant is over alle waarden van x dan hoef je niet te twijfelen aan homoscedasticiteit. Aanname 2 kun je controleren met een Q-Q plot of histogram van de residuen. Aanname 3 kun je niet direct controleren, daar moet je voor zorgen bij je studieopzet.
Er is in de afgelopen 20-25 jaar veel onderzoek uitgevoerd naar de invloed van de woonomgeving op de ontwikkeling en ernst van astma. Omdat een groot deel van alle astmapatiënten positief reageert in type I allergie tests voor huisstofmijten, wordt onder andere veelvuldig gekeken naar de concentraties in huisstof van hun zgn. ‘major allergens’ – eiwitten waaraan het IgE van de meeste mijt-allergische patiënten zich specifiek bindt. Er zijn in NW en Midden-Europa in ieder geval twee veel voorkomende huisstofmijtsoorten: Dermatophagoides pteronyssinus en Dermatophagoides farinae, waarvan de major allergens Der p1 en Der f1 elk afzonderlijk specifiek kunnen worden gemeten in extracten van huisstof.
Allergeen hoeveelheden in huisstofmonsters worden meestal opgegeven in ng per m² bemonsterd oppervlak, of in relatieve concentraties, dat wil zeggen in ng allergeen per mg huisstof.
In deze opdracht hebben we de beschikking over een selectie van resultaten uit een in 2000-2004 uitgevoerde studie onder Deense schoolkinderen (DAMIB), bij wie onder andere matrasstofmonsters zijn geanalyseerd. Bij elk kind werd gedurende 2 minuten stof gezogen van het volledige oppervlak van het matras, waarbij het opgezogen stof werd verzameld op een filter.
De variabele Stof geeft het gewicht van het aldus
verzamelde stof (in mg), en de variabelen Derp1 en
Derf1 geven de totale hoeveelheden van Der p1 en Der f1 (in
ng), respectievelijk, die met immunoassays in het extract van het stof
gemeten werden.
De onderzoekers zijn vooral geïnteresseerd in het effect van de hoeveelheid stof op de hoeveelheid allergenen. Tijdens een werkcollege in Onderzoeksmethoden hebben we aandacht besteed aan de relatie tussen de hoeveelheid Der p1 en de hoeveelheid verzamelde stof. Hier kijken we naar Der f1. Gebruik de vier stappen om een antwoord te krijgen op de onderzoeksvraag.
a. State. Wat is de onderzoeksvraag? Denk aan het benoemen van uitkomst- en verklarende variabele.
‘Kunnen we de hoeveelheid huisstofmijt allergeen Der f1 in stofmonsters voorspellen op basis van gewicht van de verzamelde stof?’ Der f1 is dus de uitkomst en de hoeveelheid stof de determinant/verklarende variabele.
b. Plan. Welke beschrijvende statistiek zou je willen bekijken? Welke toets wil je gebruiken (wees zo specifiek mogelijk)? Wat is de daarbij behorende nulhypothese?
We willen in ieder geval een spreidingsdiagram zien met Der f1 tegenover stof. Daarnaast willen we toetsen of er een lineair verband is, dus we gebruiken (enkelvoudige) lineaire regressie. De nulhypothese is geen lineair verband, of H₀: β₁ = 0, versus de alternatieve hypothese dat er wel lineair verband is: H₁: β₁ ≠ 0.
c. Solve. Gebruik de juiste delen van de uitdraai hieronder om de vraag te beantwoorden. Geef aan welke analyse je gebruikt om de vraag te beantwoorden, en welke grafieken je gebruikt voor het controleren van welke aannames.

Analyse 1
> m1 <- lm(Derf1~Stof, data=d1)
> summary(m1)
Call:
lm(formula = Derf1 ~ Stof, data = d1)
Residuals:
Min 1Q Median 3Q Max
-8468.1 -4827.9 -679.6 2497.4 23302.1
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 4671.346 2975.757 1.570 0.130
Stof 1.882 2.990 0.629 0.535
Residual standard error: 7340 on 23 degrees of freedom
Multiple R-squared: 0.01692, Adjusted R-squared: -0.02582
F-statistic: 0.3959 on 1 and 23 DF, p-value: 0.5354
> res1 <- residuals(m1) # sla residuen model 1 op in object res1
> qqnorm(d1$Derf1, main="Fig 2a: Q-Q Der f1"); abline(mean(d1$Derf1), sd(d1$Derf1))
> qqnorm(d1$Stof, main="Fig 2b: Q-Q Stof"); abline(mean(d1$Stof), sd(d1$Stof))
> qqnorm(res1, main="Fig 2c: res mod1"); abline(mean(res1), sd(res1))
> plot(res1~d1$Stof, main="Fig 2d")
> abline(h=0)
> plot(res1~d1$Derf1, main="Fig 2e")
> confint(m1)
2.5 % 97.5 %
(Intercept) -1484.475684 10827.16801
Stof -4.304417 8.06748

Analyse 2
> m2 <- lm(Stof~Derf1, data=d1)
> summary(m2)
Call:
lm(formula = Stof ~ Derf1, data = d1)
Residuals:
Min 1Q Median 3Q Max
-644.42 -321.42 -47.15 291.40 1525.61
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 8.089e+02 1.357e+02 5.962 4.45e-06 ***
Derf1 8.994e-03 1.429e-02 0.629 0.535
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 507.5 on 23 degrees of freedom
Multiple R-squared: 0.01692, Adjusted R-squared: -0.02582
F-statistic: 0.3959 on 1 and 23 DF, p-value: 0.5354
> res2 <- residuals(m2) # sla residuen model 2 op
> qqnorm(d1$Stof, main="Fig 3a: Q-Q Stof"); abline(mean(d1$Stof), sd(d1$Stof))
> qqnorm(d1$Derf1, main="Fig 3b: Q-Q Der f1"); abline(mean(d1$Derf1), sd(d1$Derf1))
> qqnorm(res2, main="Fig 3c: res mod2"); abline(mean(res2), sd(res2))
> plot(res1~d1$Derf1, main="Fig 3d")
> plot(res1~d1$Stof, main="Fig 3e")
> abline(h=0)
> confint(m2)
2.5 % 97.5 %
(Intercept) 528.25134229 1.089629e+03
Derf1 -0.02057497 3.856229e-02

Omdat Der f1 de uitkomst is en Stof de determinant, kijken we naar Fig 1b en Analyse 1. Figuur 1b geeft ons al een idee van het verband tussen Stof en Der f1: het lijkt redelijk lineair, positief, en niet heel sterk. Het lineair model dat opgesteld kan worden uit deze gegevens is Der f1 = 4671.346 + 1.882*Stof. Voor we naar de p-waarde kijken, moeten we (voor zover dat kan) de aannames controleren.
Fig 2a en 2b helpen ons niet; er is geen aanname over de verdeling van de uitkomst of de verklarende variabele(n). Fig 2c is de Q-Q plot van de residuen uit de regressie van Der f1 op Stof. Die residuen zijn niet normaal verdeeld maar zo te zien rechts-scheef (een beetje een J-vormig patroon). De steekproef is redelijk klein, de vraag is of deze steekproef van residuen mogelijk uit een normaal verdeelde populatie zouden kunnen komen. Daar valt over te twisten.
Fig 2d helpt ons beter beoordelen of het verband in de steekproef bij benadering lineair is (en dus of het verband in de populatie lineair zou kunnen zijn), en of er problemen zijn met heteroscedasticiteit (ongelijke standaarddeviatie van residuen over de lijn). Op één uitschieter na lijkt er weinig patroon te zijn in Fig 2d, dus we hebben geen reden om aan de lineariteit van het verband of de homoscedasticiteit te twijfelen.
Als we uitgaan van ongeveer normaal verdeelde residuen dan mogen we naar de p-waarde voor β₁ kijken. Die is p=0.535, p > α dus we kunnen de nulhypothese niet verwerpen.
Of: de gevonden helling van de lijn was 1.88, met 95% BHI [-4.30; 8.07]. Ook hier zien we (logischerwijze) dat er geen reden is om H₀: β₁ = 0 te verwerpen, want 0 ligt in het interval.
d. Conclude. Wat is je conclusie in de context van de onderzoeksvraag?
Hoewel de hoeveelheid Der f1 lijkt toe te nemen met toenemende hoeveelheid Stof, hebben we onvoldoende bewijs voor een lineair verband tussen de hoeveelheid Stof in stofmonsters en de hoeveelheid Der f1.
In hoofdstuk 23 van PSLS wordt het voorbeeld van ‘Aging and the blood–brain barrier’ volledig uitgewerkt in het programma Minitab (Example 23.1).
a. Gebruik het databestand BBB.Rda om de analyse in R te doen. Binnen dit Rda databestand heet de data frame ook BBB, met variabelen Age en Permeability. Begin met het maken van het spreidingsdiagram (Figure 23.1).
In het boek zijn de stappen van de analyse goed aangegeven, hier letten we vooral op hoe we dezelfde analyse (beschrijvend en toetsend) uit R kunnen krijgen.
Spreidingsdiagram met regressielijn:
# Tip: laad data met load("pad/naar/BBB.Rda")
# load("D:/BioInf/data/BBB.Rda")
# head(BBB)
plot(Permeability~Age, data=BBB, ylab="Permeability (10^-3/min)", xlab = "Age (years)")
lmPA <- lm(Permeability~Age, data=BBB)
abline(lmPA) # om regressielijn toe te voegen
b. Fit het model, controleer de aannames. Vergelijk jouw uitdraai met de Minitab uitdraai in het boek.
Aannames controleren en model bekijken:
Voor we het model bekijken, gaan we eerst de aannames checken. Sla de residuen op in een object (resPA, bv.), en bekijk de Q-Q plot van de residuen, en de ‘residuen plot’ van de residuen ten opzichte van leeftijd.
resPA <- residuals(lmPA)
qqnorm(resPA)
abline(mean(resPA), sd(resPA))
plot(resPA ~ BBB$Age)
abline(h=0)
Eén residu valt buiten de trend. Die kunnen we bekijken:
which.max(resPA)
# 13
BBB[13,]
# Age Permeability
# 13 65 1.85
Deze persoon viel als het goed is al op bij het maken van het spreidingsdiagram: voor zijn/haar leeftijd heeft deze persoon een hoge permeabiliteit. Je kunt overwegen om de lijn zonder deze persoon te fitten en de resultaten vergelijken, zoals in het boek:
lmPA.zonder13 <- lm(Permeability~Age, data=BBB[-13,])
summary(lmPA.zonder13)
Om een 95% BHI voor de helling van de lijn te krijgen, gebruik je de confint() functie op het model:
confint(lmPA)
# 2.5 % 97.5 %
# (Intercept) 0.311080668 0.91579475
# Age 0.004522221 0.01365269
c. Om (opnieuw) te oefenen met betrouwbaarheids- en predictieintervallen voor voorspellingen in R, wijken we een beetje af van het boek. Vraag R om een voorspelling met 95% betrouwbaarheidsinterval voor het gemiddelde permeabiliteit bij de leeftijden 30, 60 en 85. Wat valt je op over de breedte van die intervallen?
95% BHI voor gemiddelde permeabiliteit bij bepaalde leeftijd(en):
Om de voorspelling met 95% BHI te krijgen voor één leeftijd:
predict(lmPA, newdata = data.frame(Age=30),
interval="confidence", level = 0.95)
# fit lwr upr
# 1 0.8860614 0.709312 1.062811
De gemiddelde permeabiliteit bij een leeftijd van 30 jaar is 0.88, met 95% BHI voor de werkelijke gemiddelde permeabiliteit in de populatie [0.71; 1.06]. Zo kunnen we dit ook doen voor leeftijd 60 en 85:
predict(lmPA, newdata = data.frame(Age=60),
interval="confidence", level = 0.95)
# fit lwr upr
# 1 1.158685 1.066082 1.251288
predict(lmPA, newdata = data.frame(Age=85),
interval="confidence", level = 0.95)
# fit lwr upr
# 1 1.385871 1.250429 1.521314
Iets sneller is om een data frame te definieren met de 3 leeftijden en in één keer om BHI’s vragen:
p.df <- data.frame(Age = c(30, 60, 85))
predict(lmPA, newdata = p.df,
interval="confidence", level = 0.95)
# fit lwr upr
# 1 0.8860614 0.709312 1.062811
# 2 1.1586850 1.066082 1.251288
# 3 1.3858714 1.250429 1.521314
Het interval rondom 60 jaar is smaller dan de intervallen bij 30 of 85 jaar. Dat komt omdat 60 dichtbij de gemiddelde leeftijd ligt, en betrouwbaarheidsintervallen zijn smaller dichterbij x̄.
d. Vraag ook voorspellingen van 95% predictieintervallen voor de permeabiliteit van een individu van leeftijd 30, 60 of 85. Vergelijk deze intervallen met de BHI’s in (c). Waarom zijn deze breder?
95% predictieinterval voor individuele permeabiliteit bij dezelfde leeftijd(en):
predict(lmPA, newdata = p.df,
interval="prediction", level = 0.95)
# fit lwr upr
# 1 0.8860614 0.4042272 1.367895
# 2 1.1586850 0.7009743 1.616396
# 3 1.3858714 0.9176102 1.854133
Predictie intervallen gaan over een voorspelling van een individu, en zijn altijd breder dan een voorspelling van een gemiddelde. Let op dat de voorspellingen zelf (‘fit’) dezelfde zijn. We gebruiken de lijn om de beste voorspelling te doen op basis van onze steekproef voor zowel een individu van een bepaalde leeftijd, als de hele groep van die leeftijd.
Een onderzoeker wil kijken of er verschillen zijn tussen het IQ van meisjes en jongens en neemt een aselecte steekproef van IQ’s van 31 meisjes en 47 jongens in groep 7 van een schooldistrict in een staat in het midden van de VS. Het databestand IQs.Rda bevat de variabelen ‘Female’ (1 voor de meisjes en 0 voor de jongens) en IQ (hoogte van het gemeten IQ).
a. Gebruik het stappenplan om het probleem op te lossen. Welke toets moet je hiervoor gebruiken? Welke aanname(s) maak je, en hoe kun je die controleren?
State: onderzoeksvraag is ‘Zijn er verschillen tussen het IQ van meisjes en jongens in groep 7?’ IQ is de uitkomst en geslacht van het kind de determinant/verklarende variabele.
Plan: we beginnen met beschrijvende statistiek (bijvoorbeeld gemiddelden van de twee groepen en side-by-side boxplots van het IQ van meisjes en jongens). Omdat we twee onafhankelijke groepen hebben en een continue uitkomst, gebruiken we de t-toets voor onafhankelijke steekproeven. De nul- en alternatieve hypotheses zijn H₀: μ₁ – μ₂ = 0 (of μ₁ = μ₂) en H₁: μ₁ – μ₂ ≠ 0 (of μ₁ ≠ μ₂).
We kijken of de twee steekproeven uit normale kunnen zijn getrokken (aanname). Als je kiest voor de Welch t-toets dan hoef je niet aan te nemen dat de varianties in de twee groepen gelijk zijn; kies je voor de ‘gewone’ t-toets dan kun je die aanname van gelijke varianties ‘controleren’ met de side-by-side boxplots en/of de standaarddeviaties in de steekproef.
Solve:
# Tip: laad data met load("pad/naar/IQs.Rda")
# load("D:/BioInf/data/IQs.Rda")
# head(IQs)
describeBy(IQs$IQ, group=IQs$Female, skew=FALSE, quant=c(0.25,0.5,0.75))
# Descriptive statistics by group
# group: 0
# vars n mean sd min max range se Q0.25 Q0.5 Q0.75
# 1 1 47 110.96 12.12 77 136 59 1.77 105.5 111 119
# ----------------------------------------------------------
# group: 1
# vars n mean sd min max range se Q0.25 Q0.5 Q0.75
# 1 1 31 105.84 14.27 72 132 60 2.56 99 107 114
boxplot(IQ~Female, data=IQs)
De boxplots geven ons geen reden om te twijfelen aan de normaliteit van de waarnemingen (hoewel er in beide groepen een paar wat lagere IQ waarden zijn), en ook niet aan gelijke varianties in de twee groepen. Ook de beschrijvende statistiek laat vrij symmetrische verdelingen zien (mediaan en gemiddelde dicht bij elkaar voor iedere groep).
Het gemiddeld verschil tussen meisjes en jongens is net geen -5 punten (of 5 punten tussen jongens en meisjes).
t.test(IQ~Female, data=IQs)
# Welch Two Sample t-test
# data: IQ by Female
# t = 1.6439, df = 56.932, p-value = 0.1057
# alternative hypothesis: true difference in means is not equal to 0
# 95 percent confidence interval:
# -1.116741 11.354215
# sample estimates:
# mean in group 0 mean in group 1
# 110.9574 105.8387
t.test(IQ~Female, data=IQs, var.equal=TRUE)
# Two Sample t-test
# data: IQ by Female
# t = 1.7002, df = 76, p-value = 0.09319
# alternative hypothesis: true difference in means is not equal to 0
# 95 percent confidence interval:
# -0.8775999 11.1150742
# sample estimates:
# mean in group 0 mean in group 1
# 110.9574 105.8387
Als je de Welch t-test gebruikt, dan concludeer je dat we de nulhypothese niet kunnen verwerpen: p = 0.1057 (>α) of het 95% BHI [-1.12; 11.35] bevat 0.
Dezelfde conclusie trekken we als we de t-toets met gelijke varianties gebruiken: p = 0.09319 (>α) of het 95% BHI [-0.88; 11.12] bevat 0.
Conclude: We hebben onvoldoende bewijs voor een verschil in gemiddeld IQ tussen jongens en meisjes in groep 7.
b. Maak gebruik van een lineair model om een antwoord te krijgen op de onderzoeksvraag. Vergelijk je resultaat met dat in deel a. Zijn er verschillen? Zo ja, kun je die verklaren?
De onderzoeksvraag, uitkomst en determinant blijven hetzelfde. Ook de beschrijvende statistiek is hetzelfde. Alleen bij Plan hebben het model:
Yᵢ = β₀ + β₁xᵢ + εᵢ, met εᵢ ~ N(0, σ²)
en de nul- en alternatieve hypotheses zijn H₀: β₁ = 0 vs. H₁: β₁ ≠ 0.
lms <- lm(IQ~Female, data=IQs)
summary(lms)
# Call:
# lm(formula = IQ ~ Female, data = IQs)
#
# Residuals:
# Min 1Q Median 3Q Max
# -33.957 -5.928 0.043 8.132 26.161
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 110.957 1.898 58.46 <2e-16 ***
# Female -5.119 3.011 -1.70 0.0932 .
# ---
# Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
#
# Residual standard error: 13.01 on 76 degrees of freedom
# Multiple R-squared: 0.03664, Adjusted R-squared: 0.02396
# F-statistic: 2.891 on 1 and 76 DF, p-value: 0.09319
confint(lms)
# 2.5 % 97.5 %
# (Intercept) 107.17720 114.7376886
# Female -11.11507 0.8775999
De conclusie hier is dat we de nulhypothese niet kunnen verwerpen: p = 0.09319 (>α) of het 95% BHI [-0.88; 11.12] bevat 0. Dit zijn precies dezelfde p-waarde en 95% BHI als bij de ongepaarde t-toets met gelijke varianties.
Als je de Welch t-toets hebt gekozen (wat volgens zowel het boek als LE 1 helemaal correct is!!) dan zal je kleine verschillen hebben gevonden tussen jouw p-waarde en BHI en deze. Alleen wanneer we gelijke varianties aannemen, is de t-toets precies hetzelfde model als een lineaire regressie met een dichotome verklarende variabele (zie zelfstudie LE 3 voor meer informatie).