‘Manipuleert het ministerie van onderwijs de eindexamencijfers?’

polsstok_450x200.jpg

Op de website Sargasso.nl zet Age Letor serieuze vraagtekens bij de bewering van het ministerie dat de zwaardere exameneisen in het VO inderdaad, zoals het ministerie al verwachtte, hebben geleid tot betere resultaten. Letor laat aan de hand van de N-termen en de zogenaamde P-waarden zien dat het er op lijkt dat juist door die N-termen het geschetste beeld te positief is.

Voor BON illustreert dit het probleem dat bestuurders en beleidbepalers vaak belang hebben bij een positieve evaluatie van het door hen ingezette beleid en daarom, bewust of onbewust, te positief communiceren. Bij de rekentoets bleek vaak dat de resultaten niet zo goed waren als eerder werd gemeld, ook de beweringen over draagvlak onder docenten bij Onderwijs2032 en het lerarenregister bleken anders in eerste instantie gemeld. 

Dat de bakker op de hoek zichzelf de beste bakker van het hele dorp noemt is begrijpelijk en iedereen weet wat de waarde is van deze WC-eend boodschap. Maar als de overheid, of bijvoorbeelde de OnderwijsCoöperatie op het gebied van onderwijs zaken te positief voorstelt is dat in onze ogen een serieus probleem.

9 Reacties

  1. Toen het studiehuis werd

    Toen het studiehuis werd ingevoerd waren er een paar scholen die in het voorafgaande jaar proefdraaiden. Voor de klassieke talen kregen de leerlingen van zowel de wel-voorlopende scholen als van de niet-voorlopende scholen voor de klassieke talen dezelfde eindexamenopgaven met dezelfde beoordelingsnormen De resultaten voor de klassieke talen bij het proefdraaien waren voor de betreffende scholen zo slecht dat de normen voor hun leerlingen bijgesteld moesten worden om de proefscholen aan een acceptabel aantal voldoendes te helpen. Hieraan is veel te weinig aandacht aan besteed.

  2. Wanneer ik het goed begrijp

    Wanneer ik het goed begrijp kreeg vóór 2013 een leerling die alle vragen goed beantwoord heeft in een jaar waarin de opgaven gemakkelijk waren (2011; P = 0,61) een 9,8 en in een jaar waarin de opgaven moeilijk waren (2009; P = 0,58) een 10,2. Dat eerstgenoemde leerling niet de mogelijk had een 10,2 te verdienen is natuurlijk niet fair.

    Vanaf 2013 geldt dat nog steeds. Alleen waren de gmakkelijke vragen  van toen nu moeilijke vragen geword en (2013; P = 0,61)en en de makkelijke vragen nu  gemakkelijker dan toen (2014; P = 0,63). Geen wonder dat de resultaten beter geworden zijn!

  3. In 2011 moest een leerling 52

    In 2011 moest een leerling 52,22 % van de opgaven goed hebben om het cijfer 5,5 te krijgen. In 2013 was dat 49,44%. In beide jaren was P = 0,61. Als gelijke P-waarde inhoudt dat de opgaven in beide jaren even zwaar waren konden de leerlingen van 2013 ten onrechte met 2,7% van de opgaven minder goed het grenscijfer 5,5 behalen

  4. Waarom valt geen enkele

    Waarom valt geen enkele oppositiepartij het ministerie van onderwijs aan op het gejoemel met eindexamencijfers?

  5. Vragen bovenstaande

    Vragen bovenstaande ontdekkingen niet om open brochurebrieven aan de Tweede Kamer? Bij voorbeeld  Open brochurebrief 1 met de titel Onderwijs en Volksverlakkerij: Prestaties vwo-leerlingen verslechterd na invoering strengere slagingseisen? (Vraagteken behoort niet bij de titel). In deze brief zou BON kunnen uitleggen waarom het naar haar mening niet waar is dat de prestaties van deze leerlingen verbeterd zijn. Het verhaal van Age Letor in Sargasso is daarvoor nog niet gedetailleerd en uitgebreid genoeg want de brochure moet het karakter hebben van een met cijfers onderbouwd akademisch onderzoek. Zijn verhaaL kan wel als uitgangspunt gebruikt worden. De brochurebrief moet ook duidelijk van BON afkomstig zijn en haar overtuiging overbrengen. Het kan dus ook beter in opdracht van BON vervaardigd zijn. In deze verkiezingstijd kan BON m.i. met zulke  brochurebrieven wat meer invloed krijgen.
     
  6. P.S. Het valt op dat het CvE

    P.S. Het valt op dat het CvE wel vaardigheden wil meten maar geen inzicht. Dat lijkt mij voor een vwo-examen een slecht uitgangspunt. 
     
  7. De verklaringen van Letor

    De verklaringen van Letor waarom vanaf 2016 een grotere N-term wordt aangehouden bevreemdden mij. In hoe verre zijn de P-factorn al aangepast? Een correctie wegens onduidelijkheid of een fout in de vraagstelling lijkt mij redelijk. Voor de rest worden de fluctuaties in P beschouwd als fluctuaties in de moeilijkheidsgraad van de opgaven. Omdat de leerlingen gmiddeld elk jaar even hard werken en even slim zijn moeten die fluctuaties gecorrigeerd worden. Wat gebeurt er als de leerlingen plotseling gemiddeld slimmer geworden zijn of plotseling harder zijn gaan werken? Dan is een toename van P geen gevolg meer van fluctuaties en is N als correctiefactor voor een aantal jaren onbruikbaar  geworden.

    Achteraf gezien is, vooraf gesteld dat het gelukt is de vragen in het tijdvak 2013-2016 gemiddeld even moeilijk te houden als in het voorafgaande tijdvak, het gebruik van de hoge waarde van de normeringaddator N in 2013 goed te verdedigen

  8. Voor de door Letor naar voren

    Voor de door Letor naar voren gebrachte ruptuur in de cijfergeving bij het eindexamen vwo is dus nog helemaal geen bevredigende verklaring gegeven. Hoe wist de CvE dat de P-waarde van 2013 geen toevallige uitschieter naar boven was maar juist een toevallige uitschieter naar beneden behorend bij een nieuwe hogere gemiddelde P-waarde? De vewachting was dat de P-waarde door de verzwaring van de eindexameneisen omhoog zou gaan maar hoe wist de CvE hoe hoog de nieuwe gmiddelde P-waarde zou worden? Een goed uitgevallen gok dat de P-waarde van 2013 een maximale toevallige afwijking omlaag was? En als het een gok was en het was een verkeerde gok, wat zou het CvE dan gedaan hebben? Een manier om dat buiten het CvE om uit te zoeken of het allemaal wel klopt wat het CvE doet zou kunnen zijn om een groot aantal eindexamenkandidaten voorafgaand aan het eindexamen ook een toets van vóór 2013 te laten afleggen. 

Reacties zijn gesloten.