Statistiek A + B: Overzicht voor tentamen

January 9, 2018 | Author: Anonymous | Category: Math, Statistics And Probability, Statistiek
Share Embed Donate


Short Description

Download Statistiek A + B: Overzicht voor tentamen...

Description

Statistiek A + B: Overzicht voor tentamen SIG KLEINER DAN ALPHA : H0 VERWERPEN!!!!!!!! Meetniveau’s Kwantitatieve gegevens (numerieke schaal) kunnen worden onderverdeeld in interval en ratio. Interval Willekeurig 0-punt: 0 °C, tijdstip 0:00, jaar 0. (niet vermenigvuldigen en delen) Ratio

Natuurlijk 0-punt: aantal uren per week, leeftijd zonder categorieën, 0 minuten, kindtal, 0 gram, 0 personen () (wel vermenigvuldigen en delen). Als je 0 kunt zeggen.

Kwalitatieve gegevens kunnen worden onderverdeeld in nominaal en ordinaal. Nominaal

Zonder rangorde: geslacht, burgerlijke staat, regio waar je woont, respnr, kerklid.

Ordinaal

Met rangorde (alles in categorieën): opleidingsniveau, sterren van restaurant, maar ook leeftijd in categorieën.

Centrummaten (maten van centrale tendentie) Omschrijving

Meetniveau

Grafische weergave

Mean

Rekenkundig gemiddelde

Interval/ratio

Histogram

Median

Middelste waarneming

Ordinaal

Staafdiagram

Modus

Meest voorkomende waarde

Alle meetschalen

Staafdiagram

Spreidingsmaten (beeld van de spreiding van de verdeling) Standaarddeviatie

(interval/ratio vereist) maat voor de afwijking van alle waarnemingen t.o.v. het

(Std.deviation)

rekenkundig gemiddelde.

Variantie (Variance)

(interval/ratio vereist) De wortel uit de variantie is de standaarddeviatie. R square

Bereik (Range)

Het verschil tussen de hoogste en de laagste waarde. Maximum-minimum

Standaardfout

Standard Error. (fout) van het gemiddelde: standaarddeviatie gedeeld door de

(S.E. mean)

wortel uit het aantal waarnemingen.

Betekenis van de standaarddeviatie (p. 47 McClave) Empirische

Frequentieverdeling is heuvelvormig

regel

en symmetrisch. (ook skewness!)

Regel van

De vorm van de frequentieverdeling

Tsjebysjev

maakt niet uit.

Z-Score (Standaardiseren van een interval/ratio variabele) hoeveel eenheden standaarddeviatie een waarneming boven of onder het gemiddelde ligt.

Z = waarde (X) - rekenkundig gemiddelde (µ) standaarddeviatie (σ)

x-xgemiddeld/standaardafwijking = z Boxplot (Spreiding van een verdeling, (p.145 de Vocht, p. 56 McClave) Een rechthoek (box) met de einden (hinges) ter hoogte van het eerste en het derde kwartiel (Q1 en Q3). De mediaan wordt meestal met een lijn aangegeven. De horizontale strepen/uiteinden (whiskers/inner fences) zijn de hoogst en laagst voorkomende waarde binnen een afstand van 1,5 IQR tot aan de box. De rondjes (outliers) liggen tussen de 1,5 en 3 IQR en de * op meer dan 3 IQR. (Vaak incorrect of behoort niet tot de populatie.) IQR = interkwartielafstand = Q3 – Q1 = spreiding in de middelste 50%.

P-waarde (probability-waarde) Bij elke toets berekent SPSS de overschrijdingskans of significantie (in kolom Sig.) Dit wordt de pwaarde genoemd.

Intervalschatting Het berekenen van de lower en de upper bound. - Bij een 90% betrouwbaarheidsinterval dien je de standaardfout te vermenigvuldigen met 1.65. - Bij een 95% “ “ “ “ met 1.96 - Bij een 99% “ “ “ “ met 2.58. Deze trek je af aan de ene zijde (van het gemiddelde) en aan de andere kant tel je het op. Het betrouwbaarheidsniveau is een betere indicator voor het vaststellen van de populatiewaarde van  als deze laag is omdat dan beter zichtbaar is waar ergens de  komt te liggen.

Hypothese

Een voorlopig (theoretisch) antwoord op een onderzoeksvraag over 1 kenmerk of de relatie tussen 2 of meer kenmerken in een populatie.

Nul-

Representeert de huidige situatie. Heeft altijd een gelijkheidsteken: =

hypothese

Specificatie: H0: µ = een getal. (Er is geen verschil in…)

Alternatieve- Tegenovergestelde van de nul-hypothese. Heeft altijd een ongelijkheidsteken: Hypothese

(= met een streep erdoor). Ha: µ = < een getal. (…is lager, hoger, niet gelijk aan…)

Eenzijdig

de score op 1 moment, of de verandering van de score in de tijd. < = linkszijdig. > = rechtszijdig

Tweezijdig

de relatie tussen variabele op 1 moment, of de veranderingen van de relaties in de tijd. (= met een streep erdoor.) (Er wordt geen richting aangegeven.)

Alpha

ά (vaak ,01; ,05; ,10)

Type 1 fout

Ten onrechte wordt de nul-hypothese verworpen. Hij is dus juist maar is toch buiten het betrouwbaarheidsinterval gekomen.

Type 2 fout

De nul-hypothese wordt ten onrechte juist bevonden. Hij valt dus binnen het betrouwbaarheidsinterval terwijl dat in werkelijkheid niet zo is.

Stappen bij het toetsen van H0

1. Bepaal H0

4. Kies n

7. verzamel data

2. Bepaal HA

5. Kies test

8. bereken toetswaarde

3. Kies ά

6. Bepaal de kritieke waarden

9.Trek en verwoord

(betrouwbaarheidsinterval)

statistische conclusie.

Compare means

-

H0 = Er is geen verschil tussen het landelijk gemiddelde maatschappijkritiek en de maatschappijkritiek van PvdA stemmers.

One-Sample T

-

H1 = Er is wel verschil “ ” ” ”.

-

H0 = Er is geen verschil tussen het landelijk gemiddelde

Test

maatschappijkritiek en de maatschappijkritiek van SGP stemmers. -

H1 = SGP –stemmers hebben een lager gemiddelde op de variabele maatschappijkritiek dan het landelijk gemiddelde.

Independent

-

Samples T test

H0 = Er is geen verschil tussen lager en hoger opgeleiden wat betreft de traditionele man/vrouw rolopvatting in Suriname in 1992.

-

H1 = Lager opgeleiden hebben een meer traditionele man/vrouw rolopvatting dan hoger opgeleiden in Suriname in 1992.

Uit het betrouwbaarheidsinterval blijkt dat je voor 95% zeker kunt zijn dat het het gemiddeld verschil ligt tussen Lower en Upper. De significantie ligt niet in dit interval, daarom moet de H0 worden verworpen. Paired-Samples

-

T test

H0 = Er is geen verschil tussen het belang dat mensen hechten aan economische/burgerlijke- en aan maatschappijkritische waarden.

-

H1 = Er is wel verschil tussen “ “ “ “.

Z-toets (of T) Kijk of de berekende Z-waarde binnen de genoemde waarden valt. Als deze er buiten valt, moet de nul-hypothese worden verworpen. Betrouwbaarheid

ά (alpha)

ά/2

z

0.10

0.05

1.645

1001(1 – ά) 90%

95%

0.05

0.025

1.96

99%

0.01

0.005

2.575

T-toets (Steekproefgemiddelden vergelijken) (al of niet een significant verschil?) T-waarde

Berekenen (test-variable)

Mean difference/standaardfout

Vrijheids-

‘Degrees of freedom’ De werkelijke hoeveelheid variatie in de

Graden (df)

steekproefverdeling van t hangt af van de steekproefomvang van n. Deze afhankelijkheid wordt uitgedruk door te zeggen dat de t-verdeling (n - 1) vrijheidsgraden heeft. (Des te kleiner = variabeler.)

Sig. (2 tailed)

De significantie van de t-waarde.

Kijk of deze significantie onder de alpha

(Overschrijdingskans p) (Bij

blijft. Wanneer dit niet zo is, wordt H0

eenzijdig toetsen delen door 2.)

verworpen.

Mean

Het verschil tussen de het steekproefgemiddelde (x met streep erboven) en

difference

het theoretisch gemiddelde µ0.

Betrouwbaar-

Het interval is het verschil tussen het theoretisch- (Test value) en

heidsinterval

steekproefgemiddelde. Interval geeft aan dat de Mean difference in ?% van de gevallen tussen de Lower & Upper zal liggen. Het populatiegemiddelde µ ligt tussen (Test value + Lower) en (Test value + Upper)

Regressie R

Regressie- of B-coëfficiënt. Dit

Tabel Coëfficiënt; onder constant (de X)

is de hellingshoek van de lijn.

staat de schatting van B-coëfficiënt van

Geeft weer met hoeveel

X.

eenheden Y verandert als X met Bij positief: X neemt toe, Y ook.

Intercept

één eenheid toeneemt.

Bij negatief: X neemt toe, Y neemt af.

Het snijpunt van de lijn met de

Tabel Coëfficiënt; onder

Y-as. De voorspelde waarde van Unstandardized Coefficients; Onder B Y als X = 0.

en achter Constant; hier staat de

kleinste schatting van het intercept. SSE

Som van kwadraten van de fouten. (Sum of Square for Error.)



Standard Error of the Estimate (Steekproefvariantie?)

s = √s

SSE s² = n – 2

Voor SSE en df: kijk bij ‘Residual’.

Standard Error of the Regression model.

Scatterplot

2 of 3 interval- of ratiovariabelen

Graphs; Scatter/Dot; Simple; Define;

Spreidingsdiagram

tegen elkaar afzetten. Vooral bij

Selecteer variabelen Y Axis; X Axis;

correlatie en regressie om een lineair

Paste; Ok.

verband op te sporen tussen de variabelen. Enkelvoudige

Het causale verband tussen X en Y

Analyze; Regression; Linear;

regressie

wordt uitgedrukt in een lineaire

Dependent en Indepedent: vul

regressievergelijking. (Waarden van Y

variabele in; Paste; Ok.

voorspellen aan de hand van X.) Partiele

Testen Multicollineariteit: correlaties

Correlaties

van r > = 0.9. Zo ja, moet je de beide variabelen buiten je model houden.

Correlatie

Geeft de sterkte en de richting van een verband tussen twee variabelen weer.

Pearson’s

Is een maat voor het lineaire verband tussen twee interval/ratio variabelen.

Correlatiecoëfficiënt

(Als er ook sprake is van een derde variabele = partiële correlatie. Positief verband: X stijgt, Y ook. Negatief verband: X stijgt, Y neemt af.

Eigenschappen

-

de waarde van r ligt altijd tussen -1 en +1.

Pearson

-

Als r = 0 is er geen correlatie tussen beide variabelen.

-

Correlatie tussen X en Y = correlatie Y en X = r is symmetrisch

-

Hoe hoger de absolute waarde van r, des te sterker het verband.

Vooronderstellingen

-

r² (deter.co.)= het aandeel verklaarde variantie van Y door X.

-

het verband is lineair (controleren met een scatterplot)

-

Bivariate normale verdeling.

Tabellen bij (enkelvoudige) regressie

Model Summary R

Correlatie (coefficient) van X met Y.

R Square

Determinantiecoëfficiënt: geeft het

R square in tabel = .450. 45% van de variantie

(R²)

percentage verklaarde variantie in Y

‘winkelen’ wordt dus verklaard door ‘afstand’.

door X aan;

R square = 1 = perfect model, R square = 0= geen linear verband.

Std. Error of

Standaarddeviatie van de residuen.

the Estimate

(residuen zijn verschillen tussen de



voorspelde en echte Y-waarden.) Is

SSE s² = n – 2

Voor SSE en df: kijk bij ‘Residual’.

gelijk aan de wortel uit de variantie (Mean Square) van de residuen.

ANOVA (variantie-analyse: toetsen of het hele model significant is: als sig: = 0.9. In dat geval moet je de beide variabelen buiten je model houden.

Standaard methode

Alle onafhankelijke variabelen, (ook de niet significante) tegelijk in het model brengen. In één keer berekenen.

Stapsgewijze

Stap voor stap een onafhankelijke variabele in het model opnemen, op

methoden

volgorde van de relatieve invloed op de afhankelijke Y (hoogste F-waarde en laagste significantie). Dit proces stopt als alle significante X-en zijn verwerkt.

Beta-coefficient

Geeft een indicatie van het relatieve belang van iedere X.

Regressieanalyse

De residuen zijn de verschillen tussen de waargenomen Y-waarden en de voorspelde Y-waarden.

Residuenanalyse

Hiermee kun je nagaan of aan een aantal vooronderstellingen van regressie (en correlatie) zijn voldaan. De residuen geven een beeld van de kwaliteit van het regressiemodel. Hoe dichter de punten bij de lijn liggen, des te kleiner zijn de residuen en des te sterker is het verband en des te beter is de kwaliteit van het regressiemodel.

Zijn de residuen

Analyze; Regression; Linear; geen X en Y invullen; Plots; Kies: Histogram en

normaal verdeeld?

Normal probability plot; Continue; Paste; Run.

F – toets (variantie-analyse) Variantie-analyse

Om te toetsen of populatiegemiddelde van een interval/ratiovariabele

(N>= 30)

voor drie of meer onafhankelijke groepen aan elkaar gelijk zijn. De groepen worden onderscheiden op basis van categorale variabelen.

Vooronderstellingen

-

Alle steekproeven zijn onafhankelijk en select.

-

Elke groep is afkomstig uit een normaal verdeelde populatie.

-

De varianties van de groepen zijn in de populatie aan elkaar gelijk. (Levene’s toets.) (als alle groepen ongeveer even groot zijn hoeft dit niet zo strikt.)

Ho

Ho = µ1 = µ2 = µ3 = µk. Populatiegemiddelden van alle groepen zijn gelijk

F

Toont of het regressiemodel significant is. F = de mean squares op elkaar delen. (verklaarde op onverklaarde varianties) F-waarde 1 = gemiddelde van alle groepen aan elkaar gelijk zijn. Ho wordt

dan niet verworpen. F waarde > 1 = Ho verwerpen. De groepsgemiddelden verschillen significant. De spreiding is veroorzaakt door verschillen tussen de groepen. (NB: Met de T-toets, toets je de onafhankelijke Y’s, want niet alle variabelen hoeven relevant te zijn.) Variatie

Variantie-analyse is gebaseerd op de variatie in steekproefgegevens. Variatie = de gekwadrateerde afwijking van alle waarnemingen t.o.v. het gemiddelde (Sum of Squares) Door de variatie te delen door het aantal vrijheidsgraden verkrijg je de variantie.

Score buiten de whiskers: score valt 1,5 keer buiten de interkwartielafstand

μ = E: N*P σ2 = n*p*q µ+2σ en µ-2σ Schatting.

µ+3σ en µ-3σ Schatting

Empirische Regel Hier binnen valt 95% van de waarden Volgens de empirische regel is de kans dat een behandelde patiënt hierbinnen .95 Hier binnen valt 99.7% van de waarden Volgens de empirische regel is de kans dat een behandelde patiënt hierbinnen valt .997

Chebyshev Hier binnen valt 75% van de waarden Volgens de Chebyshev regel is de kans dat een behandelde patiënt hierbinnen valt .75 Hier binnen valt 88.9% van de waarden Volgens de Chebyshev regel is de kans dat een behandelde patiënt hierbinnen valt .889

Statistiek A: welke toets moet je gebruiken?

1. Onderzoeken of er een relatie bestaat tussen variabele A en B  KRUISTABEL (Chi2 en Cramer’s V) SPSS pag. 67 Dit is tevens de enige toets waarbij je ne nulhypothese niet wil verwerpen! H0: de twee variabelen zijn onafhankelijk Ha: de twee variabelen zijn afhankelijk 2. Onderzoeken of de waarde van een bepaald steekproefgemiddelde afwijkt van een van tevoren verwacht theoretisch gemiddelde (µ) onder de nulhypothese  T-TOETS OP ÉÉN GEMIDDELDE (ONE-SAMPLE T-TEST) SPSS pag. 77

H0: µ = … Ha: µ ≠ … 3. Onderzoeken of de gemiddelden van twee groepen van elkaar afwijken 1) Vergelijking van twee onafhankelijke groepen  INDEPENDENT SAMPLES T-TEST SPSS pag. 80 H0: µ1- µ2 = 0 Ha: µ1- µ2 ≠ 0 2) Vergelijking van twee afhankelijke groepen

 PAIRED SAMPLES T-TEST SPSS pag. 83 H0: µD = 0 Ha: µD ≠ 0 4. Onderzoeken of twee kwantitatieve variabelen verband met elkaar houden en kijken hoe sterk dit verband is 1) één afhankelijke en één onafhankelijke variabele  ENKELVOUDIGE LINEAIRE REGRESSIE ANALYSE SPSS pag. 88 H0: B1 = 0 Ha: B1 ≠ 0 2) één afhankelijke en méér dan één onafhankelijke variabelen MULTIPELE LINEAIRE REGRESSIE ANALYSE SPSS pag. 88 (zelfde principe als enkelvoudige regressie analyse) H0: B1 = 0

H0: B2 = 0

Ha: B1 ≠ 0

Ha: B2 ≠ 0

5. Onderzoeken of de gemiddelden van méér dan twee onafhankelijke groepen van elkaar afwijken  VARIANTIE-ANALYSE (ANalysis Of VAriance) SPSS 90 H0: B1= B2 = 0 Ha: Tenminste één B-waarde ≠ 0

De standaardfout geeft de standaardafwijking van alle mogelijke steekproefgemiddeldes

De standaardfout kan je afleiden door middel van de volgende formule: σ/√n. De standaard fout van het gemiddelde is de standaardafwijking van een bepaalde groep steekproefen getrokken uit de populatie. (Std. Error Mean)

Lower en upper bound berekenen:

XZ

α/2



σ = n

Zα/2= zie tabel, betrouwbaarheidsinterval delen door 2 en zoeken bij B naar de juiste waarde die bij het gedeelde getal hoort. (bij kleine steekproef in t-tabel zoeken naar waarde steekproef en bijbehorende z-waarde). LET OP DE GROOTTE VAN DE STEEKPROEF Lower bound: Xgemiddeld verminderen met de rest van de formule Upper bound: Xgemiddeld optellen bij de rest van de formule.

Eenzijdig toetsen: De waarden die voldoen aan de alternatieve hypothese zijn altijd groter (of altijd kleiner) dan die van de nulhypothese. Enkelvoudig Ho: θ = θo H1: θ > θo

Samengesteld

Ho: θ ≤ θo H1: θ > θo

Tweezijdig toetsen: De waarden die voldoen aan de alternatieve hypothese kunnen zowel groter als kleiner zijn dan die van de nulhypothese. Ho : θ = θo H1 : θ ≠ θo Grootte van de steekproef berekenen p. 263-264 Formule:

n

( PsQs )( Z )² errorterm ²

N= uitkomst, grootte van de steekproef Zα = z-score die past bij betrouwbaarheidsniveau Ps = kans op succes Qs= kans op mislukking

Error term = percentage waarnaar je streeft over hoeveel afwijking er mag zijn.

De grootheid Sx is in de statistiek de benaming voor de standaardafwijking van het steekproefgemiddelde. Formule voor de t-waarde (bij one sample t-test): X  µ0 T  n S Df = degrees of freedom  n-1, deze moet je bij een t-test als zoekwaarde gebruiken Kritieke waarden voor t af te lezen op p.800, niet vergeten N-1 te doen.

Wanneer een steekproef groter is dan 121 mag je ook een z-toets doen. Kleiner dan 121  t-toets

SPSS berekent als Mean Difference altijd M1-M2, ofwel het gemiddelde van groep (a) minus het gemiddelde van groep (b). De regel van cochran luidt: geen van de verwachte cell count is minder dan 1 en niet meer dan 20% is minder dan 5. Rijtotaal*Kolomtotaal/Steekproefomvang De R-kwadraat is de proportie(of percentage)verklaarde variantie. Dit is het percentage van spreiding in het afhankelijk kenmerk ten aanzien van het gemiddelde van het afhankelijk kenmerk op het onafhankelijk kenmerk. Hoe dichter bij de 1, hoe beter het deterministisch model en hoe dichter de punten in de puntenwolk op de regressielijn liggen. .279 betekent dat de punten in de puntenwolk relatief ver van de regressielijn afliggen. Ook wel Coefficient of Determination. Standard error of regression model berekenen: Je pakt uit de ANOVA bij residual de Sum of Squares en die deel je door de df, dan kom je uit op de mean square. Als je vervolgens hier de wortel uit trekt, komt je uit op the standard error of the estimate. (door SPSS wordt de uitkomst de mean square genoemd) Dit is de gemiddelde spreiding van de punten ten opzichte van de regressielijn die je erdoorheen hebt getrokken. Wanneer je de Sum’s of Squares in de output deelt door de bijhorende vrijheidsgraden onder df, dan krijg je de Mean Squares die SPSS vermeldt onder ANOVA. Uit de vrijheidsgraden kun je achterhalen wat de waarde van n is, ofwel het aantal respondenten dat bij de regressieberekening meedoet. Anova  Total (is aantal respondenten)  -1 voor elke variabele.

De intercept, oftwel Bo, is de afstand van het snijpunt met de y-as tot de oorsprong. De B-coefficient, of de B1, is een soort richtingscoefficient; de hellingshoek van de regressielijn. Ŷ = b0+b1*X1 Bereken zoals uitgelegd op pagina 629 de breedte van het 95% voorspellingsinterval van KRANTMIN wanneer we uit de populatie van alle respondenten één 30-jarige respondent zouden nemen Hiervoor heb je de zoals je ziet de waarde van SSXX (het boek noemt dit ook wel S2 x ) nodig. Ŷ ± Tα/2 * S * √(1 + (1/n) + ((Xp-Xgemiddeld)^2/SSxx)

Multipele regressieanalyse Y= B0 + B1x1 + B2x2 + B3x3 + E Y=De afhankelijke variabele Waarbij B1/2/3 de coefficienten van de variabelen zijn en X1/2/3 de verschillende onafhankelijke variabelen. En B0 het begingetal Hoeveel procent door de kwadratensom of variantie verklaard wordt kun je aflezen aan: model summary  Rsquare of Regression / Total = % verklaard (ANOVA) The model fits data very well als meer dan 20% verklaard wordt. Variantie analyse gebruik je om te kijken of populatiegemiddelden van 3 of meer groepen significant van elkaar verschillen, terwijl je bij multipele regressie een afhankelijke variabele zo goed mogelijk probeert te verklaren door middel van meerdere onafhankelijke variabelen. Formule voor F : ((SST-SSE)/k) / SSE/ ((n-(k+1)) N= grootte steekproef SST = Totale regressie SSE = onverklaarde regressie  residual K = het aantal onafhankelijke variabelen. F=waarde bruikbaarheid model.( en R^2 geeft aan hoeveel % verklaard wordt) In de tabel Coefficients staan onder B de kleinste-kwadraten-schattingen van alle regressiecoëfficiënten. Achter (Constant) staat de waarde van het intercept.

Twaarde= B1/SB1 De standaarderror geeft weer in welke mate het coefficient van de steekproef kan afwijken van degene van het totaal.

Cramers V  wanneer deze waarde boven de 0.5 komt begint het wat voor te stellen, maar vaak is de test ook zonder cramers V statistisch relevant vanwege de toetsingsgrootte SIG < ALPHA: H0 verwerpen. Bij t-toets Sig 2 steekproeven. ANOVA. Zijn de scores stat. Significant. Ordinaal – Ordinaal: Spearman Rs (-1; +1) als < -.3 ; > .3 begint het wat voor te stellen Wilcoxon 2 related samples (chi-kwadraat/ cramer’s V) Ordinaal – Interval/Ratio: Variantie analyse Paired samples t-test >3 ordinale variabele in verband  friedmantest Mogelijk ook Kruskall-wallis. Interval/Ratio – Interval/Ratio: R Pearson R(-1 ; +1) Regressie-analyse

Samenhang: Correlate of kruistabel Score voorspellen heeft met een andere te maken  regressie analyse Variantie-analyse: ANOVA: F-toets 2 related samples bij verschil verdelingen van kenmerken: Wilcoxon. SPEARMAN: ORDINAAL PEARSON: INTERVAL

Toetsende en verklarende statistiek, een vijftal vragen. 1. Een onderwijssocioloog heeft het vermoeden, dat er een verschil bestaat tussen het gemiddeld aantal minuten, dat mensen tv kijken, indien een opsplitsing plaatsvindt naar opleidingsniveau. Betreffende onderzoeker heeft materiaal ter beschikking om dit vermoeden te toetsen. Welke toetsen zijn eventueel geschikt, noem de voorwaarden waaronder deze toetsen mogen worden gebruikt en formuleer de bijbehorende hypothesen. Gemiddeld minuten  interval Opleidingsniveau  ordinaal Toets: variantie analyse: compare means, anova. Wanneer geen symmetrisch klokvormige verdeling  kruskall wallis. 2. Een theoloog met aanleg voor empirisch onderzoek wil weten of het al dan niet hebben van kinderen in statistische zin een relatie heeft met het al dan niet lid zijn van een kerk of religieuze organisatie. Hij kijkt naar het meetniveau van de kenmerken en kiest voor een specifieke statische analysetechniek. Welke techniek is dat? Formuleer de nulhypothese en de alternatieve hypothese. 2 kenmerken statistisch afhankelijk Nominaal – Nominaal Correlate, bivariate. Pearson. 3. Een communicatiewetenschapper vermoedt, dat er een verschil bestaat in het gemiddeld aantal minuten, dat mensen zonder kinderen en mensen met kinderen, televisie kijken en wil dat toetsen met de meest geschikte toets. De onderzoeker vermoedt, dat de verdeling over het kenmerk Kijktijd in de twee onderzoekspopulaties als normaal mag worden beschouwd. Welke toets zal hij kiezen? Formuleer de nulhypothese en de alternatieve hypothese. Interval – Nominaal Parametrische toets  hier t-toets

4. Een sociaalpsychologe is geïnteresseerd in de samenhang tussen twee variabelen betreffende steun uit het sociale netwerk. Betreffende variabelen luiden in vraagvorm als volgt: 1. ‘Ik kan altijd met mijn problemen bij iemand terecht’ 2. ‘Ik heb genoeg mensen om me heen, die me kunnen helpen De antwoordmogelijkheden op deze variabelen zijn; 1. altijd, 2. vaak, 3 soms, 4 bijna nooit, 5 nooit. Welke samenhangsmaat is de meest geschikte en waarom? Tevens wil betreffende onderzoekster weten of er een significant verschil bestaat voor wat betreft de verdelingen op deze kenmerken. Welke toets kan zij gebruiken? Gradatie, rangorde. 2 ordinale kenmerken  samenhang  correlate Spearman.

5. Een socioloog doet een poging om met behulp van secundaire analyse de kijktijd van respondenten te voorspellen uit de leeftijd van de respondenten. Hij voert hiertoe een statistische analyse uit, die daarvoor geknipt is. Vervolgens voert de socioloog een tweede kenmerk (geslacht) in in het model. Dit mag niet zo maar. Hij heeft daartoe wel dit kenmerk geslacht moeten transformeren van een kwalitatief kenmerk naar een kwantitatief kenmerk.

Voorspelling: Regressie-analyse. Deel 2: Recode, compute, dummy Kenmerk geslacht meevoeren. Verklaringskracht hetzelfde. Compute variabele: compute, function Group, All, Mean Mean( v… , v… , v… )

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF