Stichprobengrösse und power Berechnung in r als alternative zu proc macht in SAS?
So, ich bin versucht, um zu sehen, wie nah die Größe der Stichprobe Berechnungen (zur Probe zwei unabhängige Proportionen mit ungleichen Muster, Größen) sind zwischen proc macht in SAS und einige Beispiel-Größe-Funktionen in r. Ich bin mit den Daten, die hier an der UCLA-website.
Dem UCLA-Website haben die Parameter wie folgt:
p1=.3,p2=.15,power=.8,null Unterschied=0, und für die zwei-Seiten-tests es wird davon ausgegangen gleicher sample-Größen;
für die ungleiche Stichprobengröße tests der Parameter sind die gleichen, mit der Gruppe der GEWICHTE von 1 für Gruppe1 und 2 für die Gruppe 2, und die Prüfungen, die Sie durchführen, sind einseitig.
Bin ich mit der r-Funktion
pwr.t.test(n=NULL,d=0,sig.level=0.05,type="two.sample",alternative="two.sided")
aus der pwr
Paket.
Also, wenn ich die Eingabe der parameter Auswahl der UCLA Website hat für Ihre erste Beispiel, bekomme ich die folgende Fehlermeldung:
Error in uniroot(function(n) eval(p.body) - power, c(2, 1e+07)) :
f() values at end points not of opposite sign.
Diese erscheint, weil der Unterschied ist nicht nachweisbar durch r. I set d=.5 und es lief. Würde SAS geben Fehler als auch für zu klein für einen Unterschied? Es nicht in der Beispiel als Ihre null-Differenz ist null auch.
Bekomme ich auch die oben genannten Fehler bei Verwendung von
pwr.2p.test(h = 0, n = , sig.level =.05, power = .8)
und
pwr.chisq.test(w =0, N = , df =1 , sig.level =.05, power =.8 ).
Ich etwas tun, schrecklich falsch, aber ich kann nicht scheinen, um wirklich einen Weg finden, wenn die Hypothese aufgestellt, Differenz 0 ist.
Ich verstehe, dass SAS und r werden mit verschiedenen Methoden für die Berechnung der Leistung, also sollte ich nicht erwarten, das gleiche Ergebnis zu erhalten. Ich bin wirklich nur versucht, um zu sehen, ob ich replizieren kann, proc power Ergebnisse in r.
Ich in der Lage, erhalten nahezu identische Ergebnisse für das erste Beispiel mit der gleichen sample-Größen und eine zweiseitige alternative mit
bsamsize(p1=.30,p2=.15,fraction=.5, alpha=.05, power=.8)
aus der Hmisc
Paket. Aber wenn Sie es tun 1-seitige tests bei ungleichen Stichprobengrößen, ich kann nicht replizieren solche.
Gibt es eine Möglichkeit zum replizieren der Prozess in r, für die 1-seitige Stichprobengröße Berechnungen für ungleiche Gruppengrößen?
Cheers.
- Ich bin ein wenig verwirrt, warum Sie mit
pwr.t.test
für eine power-Analyse der Proportionen, im Gegensatz zu sagenpwr.chisq.test
? Kannst du etwas spezifischer werden (z.B. aufzeigen der spezifischen code, den Sie lief, anstatt Sie einfach "I input-parameter Abschnitten als die UCLA-Website hat für Ihr erstes Beispiel") ? - Hi. Ich habe ein paar mehr info oben. Bitte lassen Sie mich wissen, wenn das nicht hilft. Auch die code-Zeilen oberhalb der genaue code, den ich lief in r, mit dem UCLA-Werte in die Funktion ein.
- Mein Eindruck ist, dass
d > 0
ist notwendig fürpwr.t.test
zu geben, sinnvolle Ausgabe.
Du musst angemeldet sein, um einen Kommentar abzugeben.
In
pwr.t.test
und seine Derivate,d
ist nicht das null Unterschied (das ist der Wert null angenommen wird), aber die Effektstärke/Hypothese Unterschied zwischen den beiden Populationen. Wenn der Unterschied zwischen Bevölkerung bedeutet ist null, keine Probe Größe lässt Sie erkennen einen nicht vorhandenen Unterschied.Wenn die Bevölkerung a hat Einen Anteil von 15% und population B hat einen Anteil von 30%, verwenden Sie dann die Funktion
pwr::ES.h
zum berechnen der Größe des Effekts und einen test von Proportionen wie:pwr.2p.test(h = .15, n =, sig.level =.05, power =.8 ,alternative="two.sided")
ich bekam n=697.6765 pro Gruppe. Ucla bekam n=121,120,und 132 verläuft von drei verschiedenen Methoden. Für die Verwendungpwr.chisq.test(w=0.15,df=1,sig.level=0.05,power=0.80)
ich bekam N= 348.8382. Ich bin immer noch nicht verstehen, warum ich bin immer so große Unterschiede in n ist.pwr::ES.h
,pwr::ES.w1
, undpwr::ES.w2
. Die Frage bearbeitet wurde, zu reflektieren.