BeBur schrieb:
Die gesamte Inferenzstatistik (also Hypothesentests, p-Wert, etc.) die in der empirischen Forschung weiterhin vornehmlich verwendet wird basiert auch auf genau der Beobachtung, dass du durch Zufall eine besonders auffällige/abweichende Stichprobe vorliegen haben könntest.
Bei George Spencer-Brown (Wahrscheinlichkeit und Wissenschaft) ist es die Wahrscheinlichkeit einer langen Reihe Einsen in einer unendlichen Reihe von Zufallszahlen ... die Wahrscheinlichkeit für sowas liegt rechnerisch auch nicht bei 0 (kann man genau ausrechnen, aber es reicht zu wissen, dass das bei echtem Zufall kein "unmögliches Ereignis" darstellt ... Zahlraum egal).
Also bauen wir auch keine Zufallsgeneratoren, denn das, was diese Programme ausgeben, entsteht eben nicht zufällig, denn dann könnte es theoretisch auch eine elend lange Reihe von Einsen geben ... denn die Wahrscheinlichkeit dafür ist bei echtem Zufall >0.
Genau wie die Wahrscheinlichkeit für eine zufällig verzerrte Zufallsstichprobe. Wenn die Stichprobe größer ist, dann ist die Wahrscheinlichkeit natürlich kleiner ... da ist Statistik ein wenig wie Schrot ... je weiter das streut, desto eher kommt eine tote Ente dabei raus.
Eine Zufallsstichprobe
kann mit einer bestimmten Wahrscheinlichkeit verzerrt sein ... eine nicht zufällige Stichprobe ist es auf jeden Fall ... denn da wäre es doch eher Zufall, wenn die Merkmalsausprägungen genau so verteilt wären, wie in der betrachteten Grundgesamtheit.
Diese Unsicherheit im Bezug auf die Zufallsstichprobe verschwindet erst, wenn du wirklich alle befragt hast.
Und das ist - wie weiter oben bereits dargelegt - ein Aufwand, den wirklich niemand für das bisschen Erkenntnisgewinn oder Übertragungssicherheit, die das bietet, auf sich nimmt.
Man kann es sogar bei Wahlen sehen ... denn oft kann man aus der ersten Hochrechnung schon sehen, wie die künftige Regierung zusammengesetzt sein könnte.
Die Endergebnisse (nach Auszählung aller abgegebenen Stimmen) weichen von den ersten Hochrechnungen (in die nur ein geringer Anteil der abgegebenen Stimmen einfließt), oft nur gering ab ... die Tendenz wird meist schon an den ersten vorliegenden Zahlen deutlich.
Ich habe bisher noch nicht erlebt, dass ein Wahlergebnis zwischen 18:00 am Wahlabend und endgültigem Ergebnis "gekippt" wäre.
Die statistischen Verfahren sind schon recht gut ... man kann ja mal in Forschungsberichte von Soziologen hineinschauen, mit was für Konfidenzintervallen man so arbeitet, wenn man 100, 1.000 oder 10.000 Leute befragt (mehr sind es meist eh nicht, weil der Aufwand explodiert).
Aber irgendwie ist das hier ziemlich OT. sorry