ModuleNotFoundError:没有名为“ numpy.testing.nosetester”的模块


11

我正在使用决策树,并且引发了该错误。当我使用反向传播时,出现了相同的情况。我该如何解决?(对不起,我英语不好)

import pandas as pd
import numpy as np
a = np.test()
f = open('E:/lgdata.csv')
data = pd.read_csv(f,index_col = 'id')

x = data.iloc[:,10:12].as_matrix().astype(int)
y = data.iloc[:,9].as_matrix().astype(int)

from sklearn.tree import DecisionTreeClassifier as DTC
dtc = DTC(criterion='entropy')
dtc.fit(x,y)
x=pd.DataFrame(x) 

from sklearn.tree import export_graphviz
with open('tree.dot','w') as f1:
    f1 = export_graphviz(dtc, feature_names = x.columns, out_file = f1)

追溯(最近一次通话):
  <模块>
    运行文件('C:/ ProgramData / Anaconda3 / lib / site-packages / scipy / _lib / _numpy_compat)中第1行的文件“ <ipython-input-40-4359c06ae1f0>” 。 py',wdir ='C:/ ProgramData / Anaconda3 / lib / site-packages / scipy / _lib')
  文件“ C:\ ProgramData \ Anaconda3 \ lib \ site-packages \ spyder \ utils \ site \ sitecustomize.py”,第710行,在运行
    文件execfile(文件名,名称空间)中,
  文件“ C:\ ProgramData \ Anaconda3 \ lib \ site-packages \ spyder \ utils \ site \ sitecustomize.py”,第101行,在execfile中
    exec(compile(f.read( ),文件名,'exec'),名称空间)
  文件“ C:/ProgramData/Anaconda3/lib/site-packages/scipy/_lib/_numpy_compat.py”,第9行,在<module>中
    从numpy.testing.nosetester import import_nose

ModuleNotFoundError:没有名为“ numpy.testing.nosetester”的模块


1
您正在使用哪个numpy和pandas版本?
hv89

另外,需要sklearn版本。
hv89

Answers:


24

发生这种情况的原因是numpy和之间的版本不兼容scipynumpy在其最新版本中已弃用numpy.testing.nosetester

复制问题

pip install numpy==1.18 # > 1.18
pip install scipy<=0.19.0 # <= 0.19 

from sklearn.tree import DecisionTreeClassifier as DTC

触发错误。

解决错误

升级scipy到更高版本。

pip install numpy==1.18
pip install scipy==1.1.0
pip install scikit-learn==0.21.3

但不仅限于此。通过将上述库升级到最新的稳定版,您应该可以摆脱此错误。


2
谢谢!这是完美的
lizziepika


2

使用lexnlp软件包时遇到了相同的错误,可以通过安装进行修复:

scipy==1.4.1
pandas==0.23.4    
numpy==1.18.1
lexnlp==0.2.7.1 

(只有在知道您正在项目中明确使用它并且知道自己在做什么的情况下,才安装lexnlp)


0

我通过以下方法解决了这个问题:

pip卸载numpy pip安装numpy == 1.17.0

并使用:

from numpy.testing import rundocs
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.