Tag: regression
Regressionsanalyse ist eine Sammlung von statistischen Techniken für die Modellierung und die Vorhersage einer oder mehrerer Variablen in Abhängigkeit von anderen Daten.
3
Antworten
dieses Stück code zurück coefficients :intercept , slop1 , slop2 set.seed(1) n=10 y=rnorm(n) x1=rnorm(n) x2=rnorm(n) lm.ft=function(y,x1,x2) return(lm(y~x1+x2)$coef) res=list(); for(i in 1:n){ x1.bar=x1-x1[i] x2.bar=x2-x2[i] res[[i]]=lm.ft(y,x1.bar,x2.bar) } Wenn ich Typ: > res[[1]] Bekomme ich: (Intercept) x1 x2 -0.44803887 0.06398476
3
Antworten
Ich bin der Durchführung der logistischen regression mit diesem Seite. Mein code ist wie folgt. mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") mylogit <- glm(admit ~ gre, data = mydata, family = "binomial") summary(mylogit) prob=predict(mylogit,type=c("response")) mydata$prob=prob Nachdem dieser code ausgeführt, dataframe
2
Antworten
Ich habe versucht, einen kategorischen inpust in eine regression Baum (oder Random Forest Regressor) aber sklearn hält Fehler zurückgeben und bitten für numerische Eingaben. import sklearn as sk MODEL = sk.ensemble.RandomForestRegressor(n_estimators=100) MODEL.fit([('a',1,2),('b',2,3),('a',3,2),('b',1,3)], [1,2.5,3,4]) # does not work
3
Antworten
Ich versuche eine Anwendung zu entwickeln, würde die Berechnung der trend-Zeilen, die excel unterstützt, aber für größere Datenmengen. Aber ich bin nicht in der Lage ist, um jede java-Bibliothek, die berechnet solche Regressionen. Für das Modell linera
1
Antworten
Habe ich eine Logistische regression, die Zusammenfassung, welche ich name. "score" Entsprechend summary(score) gibt mir folgende Deviance Residuals: Min 1Q Median 3Q Max -1.3616 -0.9806 -0.7876 1.2563 1.9246 Estimate Std. Error z value Pr(>|z|) (Intercept) -4.188286233 1.94605597
2
Antworten
In R stepwise forward regression, ich geben Sie ein minimales Modell und eine Menge von Variablen mit hinzufügen oder nicht hinzufügen): min.model = lm(y ~ 1) fwd.model = step(min.model, direction='forward', scope=(~ x1 + x2 + x3 +
2
Antworten
Verwende ich folgenden code mit glmnet: > library(glmnet) > fit = glmnet(as.matrix(mtcars[-1]), mtcars[,1]) > plot(fit, xvar='lambda') Jedoch, ich wollen, drucken Sie die Koeffizienten am besten Lambda, wie es getan wird, ridge-regression. Ich sehe folgende Struktur Passform: >
2
Antworten
Wie kann man cross_val_score für regression? Das Standard scoring, das scheint zu sein, die Genauigkeit, die ist nicht sehr aussagekräftig für die regression. Angeblich würde ich gerne verwenden, mean squared error, ist es möglich zu bestimmen, dass
1
Antworten
Ich habe einen Daten.Rahmen mit einer kontinuierlichen Prädiktor und einer dichotomen response-Variablen. > head(df) position response 1 0 1 2 3 1 3 -4 0 4 -1 0 5 -2 1 6 0 0 Kann ich problemlos
1
Antworten
Ich habe einen dataframe in pandas, die ich verwende, um zu produzieren ein Streudiagramm, und möchte eine Regressionsgerade für die Handlung. Jetzt versuche ich, dies zu tun mit polyfit. Hier ist mein code: import pandas as pd
2
Antworten
Gibt es eine Funktion zur Schätzung der fixed-Effekt (ein-Weg oder zwei-Weg -) von Pandas oder Statsmodels. Früher gab es eine Funktion in Statsmodels aber es scheint eingestellt. Und Pandas, es ist etwas genannt plm, aber ich kann
3
Antworten
Einfache Frage, wirklich! Ich bin mit vielen lineare Regressionen von y~x wollen und erhalten die Varianz für jede regression ohne Computer von hand aus der Standard-Fehler-Ausgabe in die summary.lm Befehl. Nur zu sparen Sie ein bisschen Zeit
2
Antworten
Ich versuche zu laufen, ein mixed-effects-Modell, das vorhersagt F2_difference mit dem rest der Spalten als Prädiktoren, aber ich bekomme eine Fehlermeldung, die sagt fixed-Effekt-Modell der matrix Reihe mangelhaft, so fallen 7 Spalten /Koeffizienten. Unter diesem link, Fixed-effects-Modell
2
Antworten
Regression algorithmen zu arbeiten scheinen auf Funktionen, die als zahlen dargestellt. Zum Beispiel: Dieser Datensatz enthält nicht die kategorische Merkmale/Variablen. Es ist ganz klar, wie das zu tun regression auf diese Daten und Vorhersagen Preis. Aber das
2
Antworten
Wenn dabei die regression oder Klassifizierung, was ist der richtige (oder bessere) Weg zum Vorverarbeiten der Daten? Normalisieren der Daten -> PCA -> Ausbildung PCA -> normalisieren PCA-Ausgang -> Ausbildung Normalisieren der Daten -> PCA -> normalisieren
1
Antworten
So, ich bin derzeit versuchen zu ziehen, das Konfidenzintervall für einen linearen Modell. Ich fand heraus, dass ich verwenden soll, vorherzusagen.lm() für diese, aber ich habe ein paar Probleme wirklich zu verstehen, die Funktion und ich weiß
5
Antworten
Ich bin auf der Suche nach einer guten Umsetzung für die Logistische regression (nicht regulierte) in Python. Ich bin auf der Suche nach einem Paket, das können auch GEWICHTE für jeden Vektor. Kann jemand empfehlen, eine gute
2
Antworten
Ich möchte zu zwingen, bestimmte Variablen in glm-Regressionen ohne Angabe jedes. Meine real-Daten festgelegt hat ~200 Variablen. Ich habe nicht in der Lage, um Proben von dieser in meinem online-Suche so weit. Beispiel (mit nur 3 Variablen):
1
Antworten
Ich bin neu in RStudio und ich denke, meine Frage ist ziemlich einfach zu lösen, aber eine Menge die Suche hat mir nicht geholfen. Ich arbeite mit einer regression und summary(regression1) zeigt mir alle Koeffizienten und so
4
Antworten
In einer Bemühung zu helfen, füllen Sie die R tag hier, ich bin Entsendung ein paar Fragen, die ich oft erhalten, die von Studenten. Ich entwickelte meine eigene Antworten zu diesen über die Jahre, aber vielleicht gibt
1
Antworten
Wenn ich den folgenden code mit Data-matrix - X Größe (952,144) und output Vektor y Größe (952), mean_squared_error Metrik gibt negative Werte, was ist unerwartet. Haben Sie eine Idee? from sklearn.svm import SVR from sklearn import cross_validation
10
Antworten
Möchte ich eine lineare regression in R mit der lm() Funktion. Meine Daten ist eine jährliche Zeitreihen mit einem Feld für das Jahr (22 Jahre) und eine weitere für den Staat (50 Staaten). Ich will fit eine
7
Antworten
Bin ich passend ein Modell, um den Faktor von Daten und voraussagen. Wenn die newdata im predict.lm() enthält einen einzigen Faktor-Ebene, ist unbekannt, das Modell, die alle von predict.lm() schlägt fehl und gibt einen Fehler zurück. Ist
4
Antworten
Wie durchführen schrittweise regression in python? Es gibt Methoden für die OLS in SCIPY, aber ich bin nicht in der Lage, das zu tun schrittweise. Jede Hilfe in dieser Hinsicht wäre eine große Hilfe. Danke. Edit: ich
3
Antworten
Habe ich die folgenden Informationen: Height Weight 170 65 167 55 189 85 175 70 166 55 174 55 169 69 170 58 184 84 161 56 170 75 182 68 167 51 187 85 178 62
3
Antworten
Möchte ich berechnen eine lineare regression mit der lm () - Funktion in R. Zusätzlich möchte ich, um die Steigung einer regression, wo ich explizit geben das abzufangen, um lm(). Fand ich ein Beispiel im internet, und
3
Antworten
Habe ich ein Regressionsmodell für einige Zeitreihen die Daten der Untersuchung Droge Nutzung. Der Zweck ist, um zu passen ein spline zu einer Zeit-Serie und die Arbeit ist zu 95% CI usw. Das Modell geht wie folgt:
5
Antworten
Ich möchte eine schrittweise lineare Regression mit p-Werte als Selektionskriterium, z.B.: bei jedem Schritt fallen Variablen, die die höchste, d.h. die kleinsten p-Werte und Stoppt, wenn alle Werte signifikant sind, definiert durch eine Schwelle alpha. Ich bin
1
Antworten
Wie berechnen Sie die Regressionsgerade in python, und dann zeichnen Sie es auf einem scatterplot in matplotlib? War ich ich berechnen Sie die lineare best-fit-Linie mithilfe von Ordinary Least Squares Regression wie folgt: from sklearn import linear_model
4
Antworten
Ich bin auf der Suche nach einer Möglichkeit zur Herstellung eines nicht-linearen (vorzugsweise quadratische) Kennlinie, basierend auf 2D-Daten festgelegt, die für prädiktive Zwecke. Bis jetzt bin ich mit meiner eigenen Umsetzung von gewöhnlichen kleinsten Quadrate (OLS) zu
4
Antworten
Ich versuche hart zum hinzufügen einer Regressionsgeraden auf einen ggplot. Zuerst habe ich versucht mit abline aber ich schaffte es nicht, damit es funktioniert. Dann habe ich versucht, dieses... data = data.frame(x.plot=rep(seq(1,5),10),y.plot=rnorm(50)) ggplot(data,aes(x.plot,y.plot))+stat_summary(fun.data=mean_cl_normal) + geom_smooth(method='lm',formula=data$y.plot~data$x.plot) Aber es
2
Antworten
Verwende ich eine tensorflow zu implementieren eine einfache multi-layer-perzeptron für die regression. Der code ist abgewandelt von standard-mnist classifier, dass ich nur geändert, die Ausgabe Kosten zu MSE (verwenden Sie tf.reduce_mean(tf.square(pred-y))), und einige Eingabe -, Ausgabe-Größe-Einstellungen. Allerdings,
5
Antworten
Ich bin mit R-Paket randomForest zu tun, die eine regression auf einige biologische Daten. Meine Trainingsdaten Größe ist 38772 X 201. Ich fragte mich nur---was wäre ein guter Wert für die Anzahl der Bäume ntree und die
6
Antworten
Wie finde ich den p-Wert (Signifikanz) der einzelnen Koeffizienten? lm = sklearn.linear_model.LinearRegression() lm.fit(x,y) InformationsquelleAutor der Frage elplatt | 2015-01-13
4
Antworten
Ich habe eine pandas Daten-frame, und ich möchte in der Lage, vorherzusagen, die Werte der Spalte A aus den Werten in den Spalten B und C. Hier ist ein Spielzeug-Beispiel: import pandas as pd df = pd.DataFrame({"A":
1
Antworten
Meine Entschuldigung für die dumme Frage...aber ich kann nicht scheinen zu finden, eine einfache Lösung Möchte ich extrahieren Sie die standardisierten Koeffizienten aus einer Einbauküche lineare Modell (in R) es muss eine einfache Möglichkeit oder eine Funktion,
2
Antworten
Dies ist eine Anfänger-Frage auf Regularisierung mit regression. Die meisten Informationen über das Elastic Net und Lasso-Regression online repliziert die Informationen von Wikipedia oder die original 2005 Papier von Zou und Hastie (Regularisierung und variable Auswahl über
7
Antworten
Ich habe eine Java-app, die ausführen muss, partial least squares regression. Es würde scheinen, es gibt keine Java-Implementierungen von PLSR gibt. Weka hatte vielleicht so etwas wie es an einem gewissen Punkt, aber es ist nicht mehr
5
Antworten
Ich hoffe das ist nicht zu "Fragen-und-Antwort" - Frage... hier geht: (multi -) Kollinearität bezieht sich auf extrem hohe Korrelationen zwischen Prädiktoren in das Regressionsmodell. Wie Sie zu heilen... naja, manchmal brauchen Sie nicht zu "heilen", Kollinearität,
2
Antworten
Lassen Sie mich zunächst sagen, dass das, was ich bekommen kann nicht sein, was erwarte ich, und vielleicht kann man mir hier helfen. Ich habe folgende Daten: >>> x array([ 3.08, 3.1 , 3.12, 3.14, 3.16, 3.18,
1
Antworten
Dies sind die Fragen auf, wie zu berechnen & Reduzierung von overfitting in machine learning. Ich denke, dass viele neue maschinelles lernen haben die gleichen Fragen, und so versuchte ich, klar zu sein mit meinen Beispielen und
5
Antworten
Wir haben ein lm-Objekt aus und extrahieren möchten, die standard-Fehler - lm_aaa<- lm(aaa~x+y+z) Kenne ich die Funktion, Inhaltsangabe, Namen und Koeffizienten. Aber die Zusammenfassung scheint die einzige Möglichkeit zu sein, um Sie manuell den Zugriff auf die
4
Antworten
In der least-squares-Modellen, die Kosten-Funktion ist definiert als das Quadrat der Differenz zwischen dem vorhergesagten Wert und dem tatsächlichen Wert als Funktion der Eingabe. Wenn wir das tun, Logistische regression, ändern wir die Kosten-Funktion ein logirithmic Funktion,
3
Antworten
Ich habe viele Proben (y_i, (a_i, b_i, c_i)) wo y wird vermutet, dass Sie schwanken wie ein Polynom in a,b,c bis zu einem gewissen Grad. Zum Beispiel für eine gegebene Menge von Daten-und Grad-2 könnte ich das
3
Antworten
Wenn wir eine hohe lineare Polynom, das verwendet wird, um zu passen eine Reihe von Punkten in einer linearen regression setup, um overfitting zu verhindern, verwenden wir die Regulation, und wir sind ein lambda-parameter in die Kosten-Funktion.
2
Antworten
Ich bin in den Prozess der versucht zu lernen, zu arbeiten mit neuronalen Netzen, in R. Als ein Lern-problem, ich habe mit dem Folgendes problem über bei Kaggle: Mach dir keine sorgen, dieses problem ist speziell ausgelegt
4
Antworten
Könnte mir jemand erklären, die statistisch naiv, was der Unterschied zwischen Multiple R-squared und Adjusted R-squared ist? Ich arbeite gerade an einem single-variate regression Analyse wie folgt: v.lm <- lm(epm ~ n_days, data=v) print(summary(v.lm)) Ergebnisse: Call: lm(formula
5
Antworten
Wie kann ich sagen, R, um eine bestimmte Ebene als Referenz nutzen, wenn ich binäre erklärende Variablen in einer regression? Es ist nur mit einigen level standardmäßig. lm(x ~ y + as.factor(b)) mit b {0, 1, 2,