Es kommt Kein loop-matching die angegebene Signatur und casting-Fehler
Ich bin ein Anfänger, python und machine learning . Ich bekomme folgende Fehlermeldung, wenn ich versuche, passen die Daten in statsmodels.Formel.api-OLS.fit()
Traceback (most recent call last):
File "", line 47, in
regressor_OLS = sm.OLS(y , X_opt).fit()Datei
"E:\Anaconda\lib\site-packages\statsmodels\regression\linear_model.py",
line 190, in fit
selbst.pinv_wexog, singular_values = pinv_extended(selbst.wexog)Datei "E:\Anaconda\lib\site-packages\statsmodels\tools\tools.py",
line 342, in pinv_extended
u, s, vt = np.linalg.svd(X, 0)Datei "E:\Anaconda\lib\site-packages\numpy\linalg\linalg.py" Linie
1404, in svd
u, s, vt = gufunc(a, signature=Signatur, extobj=extobj)TypeError: Keine loop-matching die angegebene Signatur und Gießen war
gefunden für ufunc svd_n_s
code
#Importing Libraries
import numpy as np # linear algebra
import pandas as pd # data processing
import matplotlib.pyplot as plt #Visualization
#Importing the dataset
dataset = pd.read_csv('Video_Games_Sales_as_at_22_Dec_2016.csv')
#dataset.head(10)
#Encoding categorical data using panda get_dummies function . Easier and straight forward than OneHotEncoder in sklearn
#dataset = pd.get_dummies(data = dataset , columns=['Platform' , 'Genre' , 'Rating' ] , drop_first = True ) #drop_first use to fix dummy varible trap
dataset=dataset.replace('tbd',np.nan)
#Separating Independent & Dependant Varibles
#X = pd.concat([dataset.iloc[:,[11,13]], dataset.iloc[:,13: ]] , axis=1).values #Getting important variables
X = dataset.iloc[:,[10,12]].values
y = dataset.iloc[:,9].values #Dependant Varible (Global sales)
#Taking care of missing data
from sklearn.preprocessing import Imputer
imputer = Imputer(missing_values = 'NaN' , strategy = 'mean' , axis = 0)
imputer = imputer.fit(X[:,0:2])
X[:,0:2] = imputer.transform(X[:,0:2])
#Splitting the dataset into the Training set and Test set
from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X,y,test_size = 0.2 , random_state = 0)
#Fitting Mutiple Linear Regression to the Training Set
from sklearn.linear_model import LinearRegression
regressor = LinearRegression()
regressor.fit(X_train,y_train)
#Predicting the Test set Result
y_pred = regressor.predict(X_test)
#Building the optimal model using Backward Elimination (p=0.050)
import statsmodels.formula.api as sm
X = np.append(arr = np.ones((16719,1)).astype(float) , values = X , axis = 1)
X_opt = X[:, [0,1,2]]
regressor_OLS = sm.OLS(y , X_opt).fit()
regressor_OLS.summary()
Dataset
Konnte nicht finden, alles, was hilfreich ist um das Problem zu lösen auf stack-overflow oder google .
X_opt
. Dies sollte ein DataFrame mit nur numerische Werte, vorzugsweise float64. Die traceback-bedeutet, die meisten wahrscheinlich, dass einer der dtypes ist falsch. X_opt.dtypes
oder X_opt.dtype
wenn es ein ndarray numpy.InformationsquelleAutor Shane Ekanayake | 2017-12-15
Du musst angemeldet sein, um einen Kommentar abzugeben.
versuchen, Angabe der
Wenn die matrix erstellt wird.
Beispiel:
Hoffe, das funktioniert!
InformationsquelleAutor Victor Sejas
Wie bereits angedeutet, müssen Sie sicherstellen X_opt ist ein float-Typ.
Zum Beispiel in deinem code würde es so Aussehen:
InformationsquelleAutor Muke888