Berechnung Grundgesamtheit einer Stichprobe

Neue Frage »

Meiselbert Auf diesen Beitrag antworten »
Berechnung Grundgesamtheit einer Stichprobe
Hi Leute,

diesmal bin ich dran mit einer Frage.

Kurz: Ich benötige eine Formel zur Berechnung der minimalen Stichprobengröße. Das Problem ist, ich benötige diese nicht abhängig von der Verteilung, sondern von der Grundgesamtheit.

Beispiel:

In einem Konzert befinden sich 50.000 Personen (N). Ich möchte mit einer Stichprobe feststellen, wie die Verteilung der Haarfarben auf die Leute ist. Diese ist wohl kaum binomial- oder normal verteilt.

Ausprägungen: blond, braun, rot, schwarz, sonstige
Stichprobengenauigkeit nehm ich einfach mal 95% an und als Varianz 0,05.

a) Wie groß muss die Stichprobe sein???

b) Wie groß müsste sie, wenn ich in eine Disko gehe und nur 1000 Gäste habe?

Letztendlich will ich formal zeigen, dass bei geringerer Grundgesamtheit eine kleinere Stichprobe notwendig ist.

Kann mir jemand ne Formel nennen???
AD Auf diesen Beitrag antworten »

Es geht also um den unbekannten Anteil irgendeiner Teilgruppe (z.B. schwarze Haare) in einer Gruppe von Menschen, bei dir oder .

Mit einer Stichprobe vom Umfang kannst du z.B. ein 95%-Konfidenzintervall für dieses angeben. Und wenn du jetzt noch von diesem Konfidenzintervall eine gewisse Genauigkeit forderst (also z.B. auf genau, d.h. Konfidenzintervalllänge maximal 0.02), dann kannst du den nötigen Stichprobenumfang berechnen.

Nochmal zusammengefasst, du brauchst also wenigstens zwei Angaben zur Genauigkeit: Einmal die Toleranzangabe für den zu bestimmenden Anteil, das ist die Konfidenzintervalllänge. Und zum zweiten das Konfidenzniveau, meist sowas wie 90, 95 oder 99%. Nur eins davon reicht nicht für eine "seriöse" statistische Antwort.


Zu eigentlichen Berechnung: Da gibt es erstmal die Approximation durch Normalverteilung. Die ist aber nur geeignet, wenn gilt, also sehr, sehr groß ist im Vergleich zur beabsichtigten Stichprobe, deren Umfang wir aber noch gar nicht kennen, sondern erst bestimmen wollen! Da beißt sich die Katze gewissermaßen in den Schwanz...
Überhaupt wird bei dieser Methode der Einfluss von ganz verwischt.

Es geht auch exakt, mit der dem Problem zugehörigen hypergeometrischen Verteilung, was dann aber unheimlich aufwändig ist und leider nicht in einer kleinen schönen Formel mündet.
Meiselbert Auf diesen Beitrag antworten »

also könnte ich es über den absoluten Fehler probieren.


10/1000 = 1%
10/50.000 = 0,02%

somit habe ich verschiedene relative Fehler und könnte die in die Formel einsetzen.




könnte ich mir vorstellen. Aber ganz richtig kann das auch nicht sein:



Also stimmt wohl was an meiner Denkweise nicht.
AD Auf diesen Beitrag antworten »

Dazu müsste man erstmal wissen, was deine Denkweise ist - ich sehe nur eine Rechnung ohne Erklärung, was du da eigentlich inhaltlich machst.
Meiselbert Auf diesen Beitrag antworten »

Na ich kann doch versuchen zu zeigen, dass eine Abweichung von 10 Leuten bei 50.000 als Grundgesamtheit ne viel genauere (größere) Erhebung verlangt als bei 1000 Personen.
Meiselbert Auf diesen Beitrag antworten »

nochmal bissl länger mein Problem:

Eventuell ist es möglich über die absolute Fehlertoleranz zu gehen (Signifikanzniveau bleibt bei 95%).
1000 Personen und ne Toleranz von 1%, also 10 Personen. Bei 50.000 Personen machen 10 Leute aber nur 0,02% aus, was also eine viel genauere Stichprobe erfordert.
Aber wie gestalte ich das in ner Formel??? Mein Ansatz von oben stimmt ja wohl irgendwie nicht.
 
 
AD Auf diesen Beitrag antworten »

Ok, du willst nicht erklären, was du da gerechnet hast, dann versuche ich es mal nachzuvollziehen:

Zitat:
Original von Meiselbert


Passend für das vorliegende Problem wäre das Konfidenzintervall



für den unbekannten Anteil einer Teilmenge mit einer gewissen Eigenschaft einer Grundgesamtheit; dabei ist der relative Anteil der Elemente mit dieser Eigenschaft in der Stichprobe vom Umfang .

Die Länge dieses Konfidenzintervalls ist , wobei für das Normalverteilungsquantil zur Anwendung kommt. Nach umgeformt ergibt sich



Sieht zwar ähnlich aus, lässt sich aber mit deinen Rechnungen nicht in Einklang bringen, da ich nicht weiß, welche Konfidenzintervallänge du zugrundlegst. Ich nehme mal als Beispiel, dass wir den Anteil der Schwarzhaarigen auf genau wissen wollen, dann ist diese Konfidenzintervallbreite für . Nun wissen wir ja vorab nicht, welches wir erhalten werden, der ungünstigste Fall ist , weil da in (*) rechts das Maximum erreicht wird. Diesen ungünstigsten Fall angenommen ergibt sich die Rechnung



für den notwendigen Stichprobenumfang. Was auffällt, und was ich oben schon in meinem ersten Beitrag erwähnt habe: Diese Betrachtung geht von einer Grundgesamtheit vom Umfang aus.

Deine Rechnung kann ich, wie gesagt, nicht nachvollziehen, da mir überhaupt nicht klar ist, auf welchen Modellannahmen die beruht.

Mit der exakten Rechnung basierend auf der hypergeometrischen Verteilung ergibt sich hingegen für der notwendige Stichprobenumfang ; für hingegen , also "fast" alle! Das liegt an der doch harten Genauigkeitsforderung von . Weicht man diese auf, sagen wir , dann sind bei "nur" noch zu untersuchen.

Insgesamt ist festzustellen, dass der notwendige Stichprobenumfang mehr von den Genauigkeitsanprüchen und bestimmt wird als von der Grundgesamtheitsgröße .

Um das zu untermauern: Wenn man etwa das Wahlergebnis von für eine Partei bei der Bundestagswahl auf mit 95% Sicherheit voraussagen will, braucht man auch "nur" Befragte, was letztendlich sehr nahe an den 9604 von obiger Näherung liegt.
Meiselbert Auf diesen Beitrag antworten »

Vielen Dank, das hilft mir weiter. Ich hatte demnach einfach nen Denkfehler drin. Ich werd die Sache alles in allem bissl abändern und dann passt es.

Dankeschön nochmal.
Gruß, Meiselbert.
1of1 Auf diesen Beitrag antworten »

Hallo zusammen!

Super Erklärung zum Stichprobenumfang - Leute, hier findet und versteht ihr es!!!

Neue Frage / Abänderung, da mein sehr nahe bei und sein kann:

Ich bräuchte vor diesem Hintergrund das exakte Vorgehen für die Binomialverteilung, also Konfidenzintervall



und das dann aufgelöst nach .
(wie oben, nur exakt mit Verteilungsfunktion der Binomialverteilung)

Geht wohl kaum explizit, muss numerisch sein. Hat jemand eine Empfehlung für ein Vorgehen / Programm bzw. schonmal eins geschrieben?

Supervielen Dank schonmal!!
Flo
1of1 Auf diesen Beitrag antworten »

Ah, halt. Hab nochmal drüber nachgedacht.

Die Approximation mit der Normalverteilung sollte doch in Ordnung sein, selbst für nahe oder .

Grund: falls nahe oder , dann erkennt man schon "viel früher" (also mit weniger Umfang), dass es so ist. In der Formel wird mit ja auch das Argument des Maximums verwendet...

Meines Erachtens also quasi: pangalaktische Weltformel für entsprechenden Fall gefunden... Freude

Andersdenkende: Bitte melden! Willkommen
Freece Auf diesen Beitrag antworten »

Hallo,
ich versuche schon den ganzen Tag einen minimalen Stichprobenumfang rauszubekommen. Ich versteh einfach nicht, wie genau man auf das "d" kommt.

Ist das "d" für 1% immer 0,02? Mir fehlt da irgendwie der Bezug der Ausgangsgröße.

Also mir geht speziell darum, dass ich eine Grundgesamtheit von 26500 Stück habe. Es geht dabei speziell um Produkte die eine gewisse größe haben müssen und nur geringfügig davon abweichen dürfen.
ich soll jetzt berechnen, wie groß eine Stichprobe sein muss, um sagen zu können das in der charge x% zu groß oder zu klein sind. (zur qualitätsbestimmung)

kann man das überhaupt so genau ausrechnen? sitz schon den ganzen tag mit meinem Statistik zeugs von vor zwei semestern hier und bekomm das nicht hin traurig
Thaddy Auf diesen Beitrag antworten »
exakte Rechnung der hypergeometrischen Verteilung
Ich beziehe mich mal auf den drittletzten Eintrag von "AD", wie genau kommst du auf die genaue rechnung, also das Ergebnis n = 8055 von N = 50000 oder n = 9599 von N = 40000000???
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »