Ontwikkelingen in big data, zoals predictive analytics, leunen zwaar op statistische technieken. Maar kunnen we met betrekking tot statistiek ook lessen trekken uit big data concepten?
Statistiek “leeft” in minstens twee verschillende werelden: de wereld van de statistici, en de wereld van de onderzoekers die statistiek toepassen. Die werelden zijn in sommige opzichten nogal uit elkaar gegroeid. Ideeën die door statistici als controversieel – of zelfs als achterhaald – worden beschouwd, zijn voor veel onderzoekers juist volkomen vanzelfsprekend. Het belangrijkste voorbeeld: statistici hebben nogal eens bedenkingen bij hypothesetoetsen, onder andere vanwege de problematische onderwijsbaarheid ervan.
Hoogste tijd dus om in te gaan op een aantal prangende vragen. Wat is er aan de hand met hypothesetoetsen? Wat zijn de mogelijkheden om hier iets aan te doen? En, last but not least, wat gebeurt er wanneer we hier vanuit big data perspectief naar kijken? Levert dat nieuwe inzichten? En zijn sommige “geavanceerde” technieken dan misschien even gemakkelijk (of zelfs gemakkelijker) te onderwijzen dan klassieke methoden?