Waarom heet de t-verdeling ook de Student’s t-verdeling?
De t-verdeling werd voor het eerst beschreven door statisticus William Sealy Gosset onder het pseudoniem “Student”.
De t-verdeling werd voor het eerst beschreven door statisticus William Sealy Gosset onder het pseudoniem “Student”.
Bij een ANOVA is de nulhypothese dat er geen verschil is tussen de groepsgemiddelden. Als een groep significant verschilt van het algemene groepsgemiddelde, dan zal de ANOVA een statistisch significant resultaat rapporteren.
Significante verschillen tussen groepsgemiddelden worden berekend met behulp van een F-statistiek, die de verhouding weergeeft tussen de gemiddelde som van de kwadraten (de variantie die door de onafhankelijke variabele wordt verklaard) en de gemiddelde kwadratische fout (de variantie die overblijft).
Als de F-statistiek hoger is dan de kritieke waarde (de waarde van F die overeenkomt met je alfa-waarde, meestal 0.05), dan wordt het verschil tussen groepen statistisch significant geacht.
Een factoriële ANOVA is elke ANOVA die meer dan één categorische onafhankelijke variabele gebruikt. Een two-way ANOVA is een soort factoriële ANOVA.
Enkele voorbeelden van scenario’s waarin je factoriële ANOVA’s gebruikt, zijn:
Het enige verschil tussen een one-way ANOVA en een two-way ANOVA is het aantal onafhankelijke variabelen. Een one-way ANOVA heeft één onafhankelijke variabele, terwijl een two-way ANOVA er twee heeft.
Alle ANOVA’s zijn bedoeld om te toetsen op verschillen tussen drie of meer groepen. Als je alleen op een verschil tussen twee groepen wilt testen, gebruik dan een t-toets.
In de formule van de Poissonverdeling is lambda (λ) het gemiddelde aantal gebeurtenissen binnen een bepaald tijds- of ruimte-interval. Bijvoorbeeld: λ = 0.748 overstromingen per jaar.
De e in de formule van de Poissonverdeling staat voor het getal 2.718. Dit getal wordt de constante van Euler genoemd. Je kunt e simpelweg vervangen door 2.718 als je een kans van de Poissonverdeling berekent. De constante van Euler is een heel nuttig getal en is vooral belangrijk in de wiskunde.
Je kunt outliers het beste alleen verwijderen als je daar een goede reden voor hebt.
Sommige uitschieters vertegenwoordigen natuurlijke variatie in de populatie en deze mogen niet worden verwijderd uit je dataset. Dit zijn echte uitschieters.
Andere uitschieters zijn problematisch en moeten worden verwijderd uit je dataset. Deze uitschieters zijn meetfouten, invoer- of verwerkingsfouten, of data uit een niet-representatieve steekproef.
Je kunt kiezen uit vier manieren om outliers te detecteren:
Outliers (uitschieters) kunnen een grote impact hebben op je statistische analyses. Ook kunnen ze de resultaten van een hypothesetoetsing vertekenen als ze onjuist zijn.
Deze extreme waarden kunnen ook de statistische power van je toets beïnvloeden, waardoor het moeilijk wordt een echt effect op te sporen, als er wel een effect is (Type II-fout).
Om een betrouwbaarheidsinterval van een gemiddelde te berekenen met behulp van de kritieke waarde van t, volg je deze vier stappen:
Je kunt de T.INV() functie gebruiken om de kritieke waarde van t te vinden voor eenzijdige toetsen in Excel. Voor tweezijdige toetsen gebruik je de T.INV.2T() functie.
Je kunt de qt() functie gebruiken om de kritieke waarde van t te vinden in R. De functie geeft de kritieke waarde van t voor de eenzijdige toets. Als je de kritieke waarde van t voor een tweezijdige toets wilt, deel je het significantieniveau door twee.
Je kunt de PEARSON() functie gebruiken om de Pearson correlatiecoëfficiënt (r) in Excel te berekenen. Als je variabelen in de kolommen A en B staan, klik je op een lege cel en typ je “PEARSON(A:A, B:B)”.
Er is geen functie om de significantie van de correlatie direct te berekenen.
Je kunt de cor() functie gebruiken om de Pearson correlatiecoëfficiënt (r) in R te berekenen. Om de significantie van de correlatie te testen, kun je de cor.test() functie gebruiken.
Je kunt de Pearson correlatiecoëfficiënt (r) gebruiken als je een correlatie tussen twee variabelen wilt meten en (1) het verband tussen de variabelen lineair is, (2) beide variabelen kwantitatief zijn, (3) beide variabelen continu van aard zijn, (4) normaal verdeeld zijn en (5) geen uitschieters hebben.
Om een hypothese te toetsen met behulp van de kritieke waarde van t, volg je deze vier stappen:
Als er slechts één of twee vrijheidsgraden zijn, heeft de chi-kwadraatverdeling de vorm van een omgekeerde “J”.
Als er drie of meer vrijheidsgraden zijn, heeft de verdeling de vorm van een rechtsscheve bult (hump).
Naarmate het aantal vrijheidsgraden verder toeneemt, wordt de bult minder rechtsscheef en verschuift de piek van de bult naar rechts. De verdeling gaat steeds meer lijken op een normale verdeling.
Als de vrijheidsgraden toenemen, wordt de (student’s) t-verdeling minder leptokurtisch, wat betekent dat de kans op extreme waarden afneemt.
De drie soorten kurtosis zijn:
Een onderzoekshypothese is jouw verwachte antwoord op de onderzoeksvraag. De onderzoekshypothese bevat meestal een verklaring (x beïnvloedt y omdat…).
Een statistische hypothese is een wiskundige uitspraak over een populatieparameter. Statistische hypothesen komen altijd in paren: de nul- en alternatieve hypothese.
In een goede onderzoeksopzet komen de nul- en alternatieve hypothese logisch overeen met de onderzoekshypothese. Soms hoef je alleen de alternatieve hypothese te formuleren.
De alternatieve hypothese wordt vaak afgekort tot Ha of H1. Als de alternatieve hypothese wordt beschreven met wiskundige symbolen, bevat deze altijd een ongelijkheidssymbool (meestal ≠, maar soms ook < of >).
De nulhypothese wordt vaak afgekort tot H0. Als de nulhypothese wordt beschreven met wiskundige symbolen, bevat deze altijd een gelijkheidssymbool (meestal =, maar soms ook ≥ of ≤).
Er kan een onderscheid worden gemaakt tussen kwantitatieve en categorische variabelen:
Zowel de chi-kwadraattoets en een t-toets kunnen worden gebruikt om het verschil tussen twee groepen te onderzoeken.
Echter, een t-toets wordt gebruikt als je een kwantitatieve afhankelijke variabele hebt en een categorische onafhankelijke variabele (met twee groepen). Een chi-kwadraattoets voor samenhang wordt gebruikt bij twee categorische variabelen.
De twee meest belangrijke chi-kwadraattoetsen zijn:
De drie soorten skewness (scheefheid) zijn:
Skewness en kurtosis zijn beide belangrijke maten voor de vorm van een verdeling.
Om het betrouwbaarheidsinterval te berekenen, moet je het volgende weten:
Als je al deze dingen weet, kun je het betrouwbaarheidsinterval voor je schatting berekenen door ze in de formule voor het betrouwbaarheidsinterval te zetten die overeenkomt met je data. Wat de formule precies is hangt af van het type schatting (e.g., een gemiddelde of een proportie) en van de verdeling van je data.
Als je betrouwbaarheidsinterval voor het verschil tussen groepen een nul bevat, betekent dit dat er een grote kans bestaat dat je geen verschil vindt tussen de groepen als je het experiment nog een keer uitvoert.
Als je betrouwbaarheidsinterval voor een correlatie of regressie nul bevat, betekent dit dat er een grote kans bestaat dat je geen correlatie vindt in je data als je het experiment nog een keert uitvoert.
In beide gevallen zul je ook een hoge p-waarde vinden bij je statistische test. Dit houdt in dat je resultaten zouden kunnen voorkomen onder de nulhypothese. Dit zou betekenen dat de resultaten geen relatie tussen de variabelen ondersteunen.
Een kritieke waarde is een waarde van de teststatistiek die de boven- en ondergrens van het betrouwbaarheidsinterval definieert, of de drempelwaarde van statistische significantie in een statistische test. Het beschrijft hoe ver je van het gemiddelde van de verdeling af moet liggen om een bepaalde hoeveelheid van de totale variatie in de data te dekken (i.e., 90%, 95%, 99%).
Als je zowel een 95%-betrouwbaarheidsinterval als een drempelwaarde van statistische significantie van p = 0.05 aanhoudt, dan zullen je kritieke waarden in beide gevallen identiek zijn.
Het betrouwbaarheidsinterval bestaat uit de boven- en ondergrens van de schatting die je verwacht te vinden bij een gegeven betrouwbaarheidsniveau.
Het betrouwbaarheidsniveau (confidence level) is het percentage van de keren dat je verwacht in de buurt van dezelfde schatting te komen als je je experiment nog een keer uitvoert of opnieuw op dezelfde manier een steekproef uit de populatie haalt.
De z-waarde en t-waarde (ook wel z-score en t-score) geven aan hoeveel standaarddeviaties je van het gemiddelde van de verdeling verwijderd bent, mits je data een z-verdeling of een t-verdeling volgen.
Als uit je test een z-score van 2.5 naar voren komt, betekent dit dat je schatting 2.5 standaarddeviaties van het gemiddelde afwijkt.
Het voorspelde gemiddelde en de voorspelde verdeling van je schatting worden bepaald door de nulhypothese van de statistische test die je uitvoert. Hoe meer standaarddeviaties van het gemiddelde je schatting afwijkt, hoe kleiner de kans dat je schatting daadwerkelijk onder je nulhypothese heeft kunnen plaatsvinden.
De standaardnormale verdeling, ook wel z-verdeling genoemd, is een speciale normale verdeling waarbij het gemiddelde gelijk is aan 0 en de standaarddeviatie gelijk is aan 1.
Elke normale verdeling kan worden omgezet in de standaardnormale verdeling door de individuele waarden om te zetten in z-waarden (z-scores). In een z-verdeling geven z-scores aan hoeveel standaarddeviaties elke waarde van het gemiddelde afligt.
Je kunt de RSQ() functie gebruiken om R² (coefficient of determination) in Excel te berekenen. Als je afhankelijke variabele in kolom A staat, en je onafhankelijke variabele in kolom B, klik je op een willekeurige lege cel en typ je: “RSQ(A:A,B:B)”.
Je kunt de samenvattingsfunctie() (ook wel summary () function) gebruiken om R² (coefficient of determination) van een lineair model weer te geven in R. Onderaan de output zie je “R-kwadraat” (“R-squared”) staan.
Er zijn twee formules die je kan gebruiken om de determinatiecoëfficiënt (R²) van een enkelvoudige lineaire regressie te berekenen.
Formule 1:
Formule 2:
De determinatiecoëfficiënt (R²) is een getal tussen de 0 en 1 dat de mate aanduidt waarin een statistisch model in staat is een bepaalde uitkomst te voorspellen. Je kunt de R² interpreteren als de proportie (het deel) van de variantie in de afhankelijke variabele die wordt voorspeld door het statistisch model.
Het is altijd duidelijk of een getal een parameter of statistiek is. Om te bepalen met welke van de twee je te maken hebt, kun jezelf de volgende vragen stellen:
Als het antwoord op beide vragen ja is, is het getal waarschijnlijk een parameter. Als het antwoord op een van de vragen nee is, is de kans groter dat het om een statistiek gaat.
Een parameter is een waarde die een hele populatie beschrijft (bijvoorbeeld het populatiegemiddelde), terwijl een statistiek een getal is dat een steekproef beschrijft (bijvoorbeeld het steekproefgemiddelde).
Er bestaat een omgekeerd evenredig verband tussen het risico op een Type II-fout en de statistische power van een onderzoek. De power is de mate waarin een toets een daadwerkelijk bestaand effect correct kan detecteren.
Om het risico op een Type II-fout (indirect) te verkleinen, kun je de steekproef vergroten of het significantieniveau verhogen, omdat je zo de statistische power vergroot.
Het risico op een Type I-fout is gelijk aan het significantieniveau dat je kiest voor je onderzoek. Je vergelijkt de p-waarde met dit niveau om te bepalen of je resultaten statistisch significant zijn.
Het significantieniveau is meestal 0.05 of 5%. Dit betekent dat er een kans van 5% is dat de gevonden resultaten zouden voorkomen als de nulhypothese daadwerkelijk waar zou zijn.
Om het risico op een Type I-fout te verkleinen, verlaag je het significantieniveau alfa. Hiermee vergroot je wel het risico op een Type II-fout.
Een Type I-fout is een fout-positieve conclusie (false positive), terwijl een Type II-fout een fout-negatieve conclusie (false negative) is.
De t-verdeling is een meer conservatieve vorm van de standaardnormale verdeling (ook wel z-verdeling of standard normal distribution genoemd). Dit betekent dat de t-verdeling een lagere kansdichtheid geeft voor het centrum en een hogere kansdichtheid voor de staarten dan de standaard normaleverdeling.
Een t-score is het aantal standaarddeviaties van het gemiddelde in een t-verdeling. Je kunt een t-score opzoeken in een t-tabel of een online calculator voor de t-score gebruiken.
Bij statistiek worden t-scores voornamelijk gebruikt om de volgende waarden te bepalen:
De t-verdeling (ook wel t-distribution of Student’s t-distribution genoemd) wordt gebruikt als de data bij benadering normaal verdeeld zijn (en dus een klokvorm volgen), maar waarbij de populatievariantie onbekend is. De variantie in een t-verdeling wordt geschat op basis van het aantal vrijheidsgraden van de dataset (totaal aantal waarnemingen min 1).
De t-verdeling is een variant op de normale verdeling, maar deze wordt gebruikt voor kleinere steekproeven, waarbij de variantie onbekend is.
Statistische power (statistical power) verwijst naar de waarschijnlijkheid dat een hypothesetoets een echt effect vaststelt als dat effect er is. Dit noem je ook wel het onderscheidend vermogen. Een toets met veel statistische power is beter in staat een Type II-fout (false negative) te voorkomen.
Als je onderzoek onvoldoende power heeft, kan het voorkomen dat je geen statistisch significant resultaat vindt, zelfs als dit wel aanwezig is en praktische relevantie heeft. Hierdoor zou je ten onrechte de nulhypothese behouden.
Er zijn tientallen maten voor de effectgrootte. De maten die het vaakst gebruikt worden zijn Cohen’s d en Pearson’s r. Cohen’s d meet de grootte van een verschil tussen twee groepen, terwijl Pearson’s r de sterkte van een relatie tussen twee variabelen meet.
Je kunt ze berekenen met behulp van statistische software (zoals SPSS) of op basis van de formules.
Statistische significantie laat zien dat een effect, verschil of relatie bestaat in een onderzoek, terwijl praktische significantie (relevantie) laat zien dat het effect groot genoeg is om betekenisvol te zijn in de echte wereld.
De statistische significantie wordt gerapporteerd met behulp van p-waardes, terwijl de praktische relevantie wordt uitgedrukt met de effectgrootte.
De effectgrootte laat zien hoe betekenisvol de relatie tussen variabelen of het verschil tussen groepen is. Het zegt iets over de praktische relevantie (ook wel praktische significantie genoemd) van een onderzoeksresultaat.
Een klein effect heeft weinig praktische implicaties, terwijl een groot effect juist veel praktische implicaties kan hebben.
Met hypothesetoetsing bereken je hoe waarschijnlijk het is dat een patroon of verband tussen onafhankelijke en afhankelijke variabelen door toeval zou kunnen zijn ontstaan.
Bij kwantitatief onderzoek analyseer je de data door middel van hypothesetoetsing van de nulhypothese en alternatieve hypothese. Je voert een statistische analyse uit en vergelijkt de verkregen p-waarde met het vooraf gekozen significantieniveau. Zo bepaal je of een verband, effect of verschil statistisch significant is.
Het significantieniveau (alfa, α) geeft de maximale kans weer dat je de nulhypothese ten onrechte verwerpt (een Type I-fout). Je kiest het significantieniveau zelf voordat je een statistische toets uitvoert. Meestal kies je voor een α van 0.05 (5%) of 0.01 (1%).
Praktische significantie (ook wel praktische relevantie genoemd) laat zien of de onderzoeksuitkomst belangrijk genoeg is om betekenisvol te zijn in de echte wereld. Voor deze vorm van significantie rapporteer je de effectgrootte van het onderzoek.
De effectgrootte wordt gerapporteerd als aanvulling op de statistische significantie.
Klinische significantie (ook wel klinische relevantie genoemd) is relevant voor interventie- en behandelingsstudies. Een behandeling wordt als klinisch significant beschouwd als deze het leven van patiënten tastbaar of substantieel verbetert.
De klinische significantie vormt een aanvulling op statistische significantie.
Nee, de p-waarde zegt niets over de alternatieve hypothese. De p-waarde geeft aan hoe waarschijnlijk het is dat de data die je hebt gevonden zouden voorkomen als de nulhypothese waar zou zijn.
Als de p-waarde onder je grenswaarde (vaak p < 0.05) valt, kun je de nulhypothese verwerpen, maar dit betekent niet per se dat je alternatieve hypothese waar is.
Je berekent p-waarden meestal automatisch met het programma dat je gebruikt voor je statistische analyse (zoals SPSS of R). Je kunt de p-waarde ook schatten met behulp van tabellen voor de teststatistiek die je gebruikt.
P-waarden vertellen je hoe vaak een teststatistiek waarschijnlijk zou voorkomen onder de nulhypothese, op basis van de positie van de teststatistiek in de nulverdeling.
Als de teststatistiek ver verwijderd is van het gemiddelde van de nulverdeling, dan is de p-waarde klein. Dit laat zien dat het niet waarschijnlijk is dat de teststatistiek zou voorkomen als de nulhypothese waar is.
De standaarddeviatie of standaardafwijking wordt afgeleid van de variantie en vertelt je hoe ver iedere waarde gemiddeld genomen van het gemiddelde verwijderd is. Het is de vierkantswortel van de variantie.
Beide maten zeggen iets over de spreiding in een verdeling, maar de eenheden verschillen:
Statistische toetsen, zoals een variantieanalyse (ook wel Analysis of Variance of ANOVA genoemd), gebruiken steekproefvariantie om groepsverschillen te beoordelen. Ze gebruiken de varianties van de steekproeven om te beoordelen of de populaties waaruit ze afkomstig zijn van elkaar verschillen.
Cramer’s V is een gestandaardiseerde maat voor de samenhang tussen variabelen, terwijl chi-kwadraat geen gestandaardiseerde maat is. Met de chi-kwadraattoets kun je enkel beoordelen of het verschil tussen twee of meerdere verdelingen van elkaar verschillen.
Door de waarde voor chi-kwadraat om te zetten in Cramer’s V, kun je waarden met elkaar vergelijken.
Je kunt Cramer’s V interpreteren met behulp van de volgende vuistregels:
Waarde Cramer’s V | Sterkte samenhang |
---|---|
0 | Geen samenhang |
0.1 | Zwakke samenhang |
0.3 | Gemiddelde (matige) samenhang |
0.5 | Sterke samenhang |
1 | Perfecte samenhang |
In de praktijk komt de waarde 0 of 1 eigenlijk nooit voor.
Cramer’s V is een maat voor de effectgrootte die informatie geeft over de statistische samenhang tussen twee of meer variabelen van nominaal niveau. De waarde ligt tussen 0 en 1 en geeft aan hoe sterk twee categorische variabelen samenhangen.
De interkwartielafstand is de beste spreidingsmaat voor scheve verdelingen of datasets met uitbijters (ook wel uitschieters of outliers genoemd).
De maat is gebaseerd op waarden uit de middelste helft van de dataset, waardoor het onwaarschijnlijk is dat de interkwartielafstand wordt beïnvloed door extreme waarden.
Het bereik geeft je de spreiding van de gehele dataset, terwijl de interkwartielafstand je de spreiding van de middelste helft van de dataset geeft.
Centrummaten zeggen iets over het punt waar de meeste waarden geclusterd zijn (het midden of het centrum van je dataset). Spreidingsmaten geven informatie over de afstand tussen datapunten (hoe verspreid zijn de data).
Datasets kunnen dezelfde centrale tendens hebben en een verschillende mate van spreiding (of andersom). Door beide soorten maten te combineren, krijg je een compleet beeld van je data.
De spreiding (variability) wordt meestal bepaald met de volgende descriptieve statistieken:
Nee, het bereik kan alleen 0 of een positieve waarde zijn, omdat je deze spreidingsmaat berekent door de laagste waarde van de hoogste waarde af te trekken.
Het bereik (ook wel spreidingsbreedte of range genoemd) is het interval tussen de laagste en de hoogste waarde in de dataset. Het is een veelgebruikte maat voor de spreiding (variability).
Homoscedasticiteit houdt in dat de variantie van een variabele gelijk is voor meerdere groepen of dat de variantie van de foutterm gelijk is.
Bij het uitvoeren van een t-toets of ANOVA, analyseer je de variantie tussen de meerdere groepen. Dit kan getoetst kan worden met Levene’s test.
Bij regressie moet de variantie van de foutterm gelijk zijn voor alle waarden van de verklarende variabele. Er mag dus niet meer of minder spreiding in de foutterm zijn voor grotere of lagere waarden van de verklarende variabele.
Als er een sterk lineair verband is tussen verklarende variabelen, spreek je van multicollineariteit.
Multicollineariteit kan ertoe leiden dat de regressiecoëfficiënten in je regressiemodel slechter worden geschat. De verklarende variabelen voorspellen elkaar dan en daardoor wordt er geen extra variantie verklaard in het regressiemodel.
Voorbeeld:
Je voegt zowel lengte in centimeters als lengte in inches toe als verklarende variabelen aan je regressievergelijking. Deze twee variabelen voorspellen elkaar, aangezien lengte in centimeters 2,54 maal de lengte in inches is, en zijn dus perfect lineair gecorreleerd. Er kunnen dan geen twee regressiecoëfficiënten worden berekend.
Bij het uitvoeren van een lineaire regressie is het belangrijk dat het verband tussen de verklarende variabele en de afhankelijke variabele lineair is. Dit betekent dat voor zowel lage als hoge waarden van de verklarende variabele de invloed gelijk is.
Voorbeeld:
De verklarende variabele lengte beïnvloedt de afhankelijke variabele gewicht. Een lineair verband betekent dat het gewicht net zoveel toeneemt als iemand van 150 cm naar 160 cm lengte groeit als van 180 cm naar 190 cm.
In het Nederlands gebruik je komma’s als decimaalteken, terwijl je in het Engels een punt gebruikt.
Voor duizendtallen gebruik je in het Nederlands punten, terwijl je in het Engels een komma gebruikt.
Als je statistische resultaten rapporteert, is het wel gebruikelijk om ook in het Nederlands een punt als decimaalteken te gebruiken. Dit is zeker het geval als je de APA-stijl gebruikt.
Als je vergelijkingen wilt rapporteren volgens de APA-stijl, moet je op de volgende punten letten:
Vergelijkingen mogen in de tekst worden geplaatst, maar gecentreerd op een aparte regel heeft de voorkeur. Nummer deze vergelijkingen, zodat je ernaar kunt verwijzen. Dit nummer is altijd rechts uitgelijnd.
Om Cronbach’s alpha te berekenen met SPSS klik je in de menubalk op:
Vervolgens selecteer je de vragen waarvan je de interne consistentie wilt meten.
Zorg er daarna voor dat “Alpha” geselecteerd is. Klik vervolgens op “Statistics” en vink “Scale if item deleted” aan. Alles staat nu goed: klik nu op “Continue” en “ok” om de analyse uit te voeren.
Hoewel SPSS Cronbach’s alpha voor je kan berekenen, kan het soms ook handig zijn om zelf de formule te kennen. Stel dat n (vragen) samen de score klanttevredenheid Y geven, dan is Cronbach’s alpha:
Hierbij staat s2(Xi) voor de steekproefvariantie van vraag i, en s2(Y) voor de steekproefvariantie van de totale score.
Je rapporteert Cronbach’s alpha meestal in de methodologie om aan te tonen dat je gebruikte vragenlijst betrouwbaar is. Je vermeldt het aantal items in je vragenlijst en de bijbehorende Cronbach’s alpha. Dit kun je op de volgende manier doen:
Als je variabele niet normaal verdeeld is, kun je kijken of je de data kunt transformeren. Het kan namelijk zijn dat een variabele zelf niet normaal verdeeld is, maar het logaritme of het kwadraat wel.
Als ook dit niet het geval is, kun je niet-parametrische toetsen gebruiken, zoals de Wilcoxon- of Mann-Whitney-toets, in plaats van de t-toets.
Er zijn twee parameters die bepalen hoe de normale verdeling eruitziet: het gemiddelde en de standaarddeviatie.
Veel statistische toetsen, zoals een t-toets of ANOVA, kunnen alleen geldige resultaten opleveren als sprake is van een normale verdeling. Als je data scheef verdeeld zijn, kan het voorkomen dat je resultaten niet valide zijn.
De aanname van een normale verdeling is vooral belangrijk bij steekproeven kleiner dan 30 observaties. Als je steekproef meer dan 30 observaties bevat, dan kun je volgens de centrale limietstelling (central limit theorem) aannemen dat aan de aanname van normaliteit wordt voldaan.
Er zijn zes stappen om de standaarddeviatie te berekenen (al kun je deze maat in Excel of SPSS automatisch laten berekenen).
De standaarddeviatie (standard deviation of s) is de gemiddelde hoeveelheid variabiliteit in je dataset. Deze maat vertelt je hoe ver iedere score gemiddeld van het gemiddelde verwijderd is. Des te groter de standaarddeviatie, des te meer variabel je dataset is.
Een meervoudige of multipele regressieanalyse is een uitbreiding van de enkelvoudige regressie waarbij twee of meer verklarende variabelen worden gebruikt om de afhankelijke variabele (Y) te voorspellen of verklaren.
Voorbeeld: Je wilt naast lengte ook geslacht gebruiken om iemands gewicht te voorspellen. In dit geval voeg je geslacht als tweede variabele X2 toe.
De regressievergelijking ziet er als volgt uit:
Υ = α + β1X1 + β2X2 + u
Je gebruikt een enkelvoudige regressieanalyse als je het effect van één verklarende (of onafhankelijke) variabele op een afhankelijke variabele wilt testen.
Voorbeeld: Je wilt aan de hand van lengte (verklarende variabele X) iemands gewicht (afhankelijke variabele Y) voorspellen of verklaren.
Een enkelvoudige regressie kan worden uitgedrukt met de volgende vergelijking:
Y = α + βX + u
Regressieanalyses worden gebruikt om het effect te bepalen van een (of meerdere) verklarende variabele(n), zoals lengte of leeftijd, op een afhankelijke variabele zoals gewicht.
Je kunt regressieanalyse gebruiken om:
Je gebruikt een repeated measures ANOVA als je dezelfde groep respondenten meerdere malen onderzoekt (within-subjects design)
Voorbeeld: Je meet de gemiddelde lengte van respondenten in 2008, 2013, en 2018. Je vergelijkt dan de gemiddelde lengte van dezelfde persoon over een bepaalde periode om te kijken of deze verandert.
Je gebruikt een multivariate ANOVA (ook wel MANOVA) als je meerdere afhankelijke variabelen gebruikt. Je kunt deze ANOVA zowel gebruiken met één als meerdere groepsvariabelen (onafhankelijke variabelen).
Voorbeeld: Je wilt niet alleen niet alleen de gemiddelde lengte, maar ook het gemiddelde gewicht van verschillende groepen sporters vergelijken.
Je kunt beter een MANOVA uitvoeren dan meerdere losse ANOVA’s, om het risico op een Type I-fout te voorkomen.
Je gebruikt een two-way-ANOVA (ook wel factorial ANOVA) als je twee of meer groepsvariabelen (onafhankelijke variabelen) in je conceptueel model hebt.
Voorbeeld: Je vergelijkt de gemiddelde lengte van verschillende typen sporters én hun gender. Er wordt dan niet alleen getest of het gemiddelde verschilt voor volleyballers en turners en voetballers, maar ook voor mannen, vrouwen en mensen met een ander gender, én of er eventuele interactie-effecten zijn.
Je gebruikt een one-way-ANOVA wanneer één groepsvariabele (onafhankelijke variabele) de groepen bepaalt en er maar één afhankelijke variabele is.
Voorbeeld: Je vergelijkt de gemiddelde lengte van verschillende typen sporters, zoals voetballers, turners en volleyballers. Het type sport dat iemand beoefent, is in dit geval de enige groepsvariabele en lengte is de enige afhankelijke variabele.
Je gebruikt een gepaarde t-test (paired samples t-test) om twee gemiddelden van gepaarde steekproeven met elkaar te vergelijken. Gepaarde steekproeven zijn afhankelijk van elkaar.
De onafhankelijke t-test (ook wel independent samples t-test of ongepaarde t-test genoemd) gebruik je om te onderzoeken of twee steekproefgemiddelden significant van elkaar verschillen.
Je gebruikt de one sample t-test om te analyseren of het gemiddelde van een steekproef significant verschilt van een bepaalde waarde.
Er zijn verschillende soorten t-testen, namelijk de:
De t-test, ook wel t-toets genoemd, wordt gebruikt om de gemiddelden van maximaal twee groepen met elkaar te vergelijken. Je kunt de t-test bijvoorbeeld gebruiken om te analyseren of moedertaalsprekers gemiddeld sneller spreken dan niet-moedertaalsprekers.
Als je meer dan twee groepen wilt vergelijken, moet je een andere toets gebruiken, zoals de ANOVA.
De p-waarde (p-value) is een getal tussen 0 en 1, waarmee je bepaalt of een steekproefuitkomst statistisch significant is. Wanneer de p-waarde kleiner is dan het gekozen significantieniveau kun je stellen dat dat de gevonden uitkomst extreem genoeg is om je nulhypothese te verwerpen.
Je gebruikt SPSS om data inzichtelijk te maken en te analyseren. De mogelijkheden zijn eindeloos, maar je zult SPSS meestal gebruiken om:
SPSS staat oorspronkelijk voor Statistical Package for the Social Sciences. Het is een statistisch computerprogramma ontwikkeld voor de sociale wetenschappen, maar wordt tegenwoordig ook veel gebruikt binnen andere sectoren zoals de economische wetenschappen.
SPSS helpt je bij het verzamelen, invoeren, lezen, bewerken en/of analyseren van gegevens, maar ook bij het verspreiden van de resultaten en het nemen van beslissingen.
Een dataset kan geen modus, één modus of meer dan één modus hebben:
Je kunt de modus bepalen met behulp van de volgende stappen:
Om de mediaan te vinden, zet je de waarden in je dataset van laag naar hoog. Vervolgens bepaal je de middelste positie op basis van n (het aantal waarden in je dataset).
De mediaan is de meest informatieve centrummaat voor scheve verdelingen of verdelingen met uitbijters. De mediaan wordt bijvoorbeeld vaak gebruikt als centrummaat voor de variabele “inkomen”, die over het algemeen niet normaal verdeeld is.
Aangezien je voor de mediaan slechts één of twee waarden in het midden gebruikt, wordt deze maat niet beïnvloed door extreme uitbijters of niet-symmetrische verdelingen. Het gemiddelde en de modus zijn hier wel gevoelig voor.
Je kunt het gemiddelde van een dataset vinden door de volgende twee stappen te volgen:
Deze methode werkt zowel voor steekproef- als populatiedata. Ook maakt het niet uit of je te maken hebt met positieve (+2) of negatieve waarden (-2).
Welke centrummaten je kunt gebruiken, is afhankelijk van het meetniveau en de verdeling van je data.
Ook moet je op de verdeling van je data letten. Voor normaal verdeelde data kun je alle drie de centrummaten gebruiken, maar bij scheve verdelingen is de mediaan de beste keuze.
Centrummaten (measures of central tendency) helpen je het centrum of midden van een dataset te vinden.
De drie meest gebruikte centrummaten zijn het gemiddelde, de mediaan en de modus.
De drie belangrijkste beschrijvende statistieken hebben betrekking op de frequentieverdeling, centrale tendens en variabiliteit van de dataset.
Statistische significantie is een term die door onderzoekers wordt gebruikt om aan te geven dat het onwaarschijnlijk is dat hun resultaten op toeval gebaseerd zijn. Significantie wordt meestal aangeduid met een p-waarde (overschrijdingskans).
Statistische significantie is enigszins willekeurig, omdat je zelf de drempelwaarde (alfa) kiest. De meest voorkomende drempel is p < 0.05, wat betekent dat de kans 5% is dat de resultaten worden gevonden terwijl de nulhypothese waar is. Een andere drempel die vaak wordt gekozen is p < 0.01.
Als de p-waarde lager is dan de gekozen alfa-waarde, mag je stellen dat het resultaat van de toets statistisch significant is.
Bij statistische analyses voorspelt de nulhypothese (H0) altijd dat er geen effect of relatie tussen variabelen is, terwijl de alternatieve hypothese (H1) je verwachting van een effect of relatie uitdrukt.
Met beschrijvende statistiek (ook wel descriptieve statistiek genoemd) vat je de kenmerken van een dataset samen. Met toetsende statistiek (ook wel inferentiële of verklarende statistiek genoemd) toets je een hypothese of bepaal je of je data generaliseerbaar zijn naar een bredere populatie.
Statistische analyse is de meest belangrijke methode om kwantitatieve onderzoeksgegevens te analyseren. Hierbij wordt gebruikgemaakt van kansen en modellen om voorspellingen over een populatie te toetsen op basis van steekproefdata.
Hoewel interval– en ratiodata beide kunnen worden gecategoriseerd, gerangschikt en gelijke afstanden hebben tussen aangrenzende waarden (gelijke intervallen), hebben alleen ratiodata een absoluut of betekenisvol nulpunt.
De temperatuur in Celsius of Fahrenheit is een voorbeeld van een intervalschaal, omdat nul niet de laagst mogelijke temperatuur is. Je kunt namelijk ook nog te maken hebben met min-temperaturen. Een Kelvin-temperatuurschaal is een voorbeeld van een ratioschaal, omdat nul het absolute nulpunt is. Er zijn geen min-temperaturen.
Het nominale meetniveau verschilt van het ordinale meetniveau, omdat nominale data alleen gecategoriseerd kunnen worden, maar ordinale data ook gerangschikt kunnen worden.
Een voorbeeld van een nominale variabele is “Kledingwinkels”. Je kunt de data bijvoorbeeld verdelen over Zara, H&M, Only en Primark, maar je kunt die kledingwinkels niet op een natuurlijke, logische manier rangschikken.
Een voorbeeld van een ordinale variabele is “Leeftijd”. Je kunt de data bijvoorbeeld verdelen over 0-18, 19-34, 35-49 en 50+, en deze categorieën kun je in een logische volgorde zetten.
Nominale data kunnen worden verdeeld over categorieën (waarbij ieder datapunt maar in één categorie hoort) en de categorieën kunnen niet worden gerangschikt op een logische of natuurlijke manier.
Een voorbeeld van een nominale variabele is “vervoersmiddel”. Deze zou bijvoorbeeld uit de categorieën fiets, auto, bus, trein, metro en tram kunnen bestaan. Die vervoersmiddelen kunnen niet op een logische manier worden geordend, want het maakt bijvoorbeeld niet uit of je start met de fiets of de auto.
In het geval van een ordinale variabele, zoals “opleidingsniveau” zou je de opleidingsniveaus vmbo, havo, vwo wel op een logische manier kunnen rangschikken.
Het nominale meetniveau is het minst complexe en minst precieze meetniveau.
Ordinale data hebben twee eigenschappen:
Het ordinale meetniveau verschilt van het intervalmeetniveau, omdat de afstand tussen twee categorieën niet gelijk is of onbekend is.
Stel je hebt de categorieën beginner, gevorderde en expert. Het is niet mogelijk om aan te geven of een beginner net zoveel verschilt van een gevorderde als een gevorderde van een expert.
Kom je ergens niet uit? Geen probleem, wij staan altijd voor je klaar.
Ons team helpt studenten afstuderen met de:
De Scribbr Bronnengenerator is ontwikkeld met behulp van het open-source Citation Style Language (CSL)-project en Frank Bennett’s citeproc-js. Het is dezelfde technologie die wordt gebruikt door tientallen andere populaire bronnengenerators, waaronder Mendeley en Zotero.
Je kunt alle citatiestijlen en talen vinden die in de Scribbr Citation Generator worden gebruikt in onze openbaar toegankelijke repository op Github. De meeste referentiestijlen worden door de Bronnengenerator ondersteund. Zo hebben we onder andere een APA Generator en een MLA Generator.
Scribbr gebruikt geavanceerde plagiaatdetectietechnologie die vergelijkbaar is met de software die door de meeste universiteiten en uitgevers wordt gebruikt, waardoor je verzekerd bent van dezelfde of zeer vergelijkbare resultaten.
De add-on AI Detector wordt aangestuurd door Scribbrs eigen software en is in staat om teksten gegenereerd door ChatGPT, Gemini en andere AI-tools met hoge nauwkeurigheid te detecteren.
Scribbr is gespecialiseerd in het controleren van studiegerelateerde documenten (mbo, hbo, wo en postdoc). We kijken de volgende soorten teksten na:
Wil je een zakelijke tekst laten nakijken? Neem dan contact met ons op.