Questions tagged «numpy»

NumPy是Python编程语言的科学和数字计算扩展。

2
平均值,nanmean和警告:空切片的平均值
假设我构造了两个numpy数组: a = np.array([np.NaN, np.NaN]) b = np.array([np.NaN, np.NaN, 3]) 现在,我发现两者和的np.mean收益:nanab >>> np.mean(a) nan >>> np.mean(b) nan 自numpy 1.8(2016年4月20日发布)以来,我们一直很幸运nanmean,它忽略了nan值: >>> np.nanmean(b) 3.0 然而,当阵列无关,但 nan价值,它提出了一个警告: >>> np.nanmean(a) nan C:\python-3.4.3\lib\site-packages\numpy\lib\nanfunctions.py:598: RuntimeWarning: Mean of empty slice warnings.warn("Mean of empty slice", RuntimeWarning) 我不喜欢抑制警告;有没有更好的功能可以用来得到nanmean没有警告的行为?
74 python  numpy  warnings 

4
如何在numpy中将布尔数组转换为索引数组
有没有一种有效的Numpy机制,可以根据条件为true而不是布尔掩码数组来检索数组中位置的整数索引? 例如: x=np.array([range(100,1,-1)]) #generate a mask to find all values that are a power of 2 mask=x&(x-1)==0 #This will tell me those values print x[mask] 在这种情况下,我想知道指标i的mask地方mask[i]==True。是否可以生成这些而不循环?
74 python  arrays  numpy 


4
使用numpy逆矩阵
我想用numpy计算逆。但是我遇到一个错误: 'numpy.ndarry' object has no attribute I 要计算以numpy表示的矩阵(例如矩阵M)的逆,它应该很简单: print M.I 这是代码: x = numpy.empty((3,3), dtype=int) for comb in combinations_with_replacement(range(10), 9): x.flat[:] = comb print x.I 我想是因为x现在变平了,所以发生此错误,因此' I'命令不兼容。有没有解决的办法? 我的目标是打印每个可能的数值矩阵组合的逆矩阵。
74 python  numpy  matrix 


7
如何将项目添加到numpy数组
我需要完成以下任务: 从: a = array([[1,3,4],[1,2,3]...[1,2,1]]) (向每行添加一个元素)到: a = array([[1,3,4,x],[1,2,3,x]...[1,2,1,x]]) 我已经尝试做类似a [n] = array([1,3,4,x])的事情 但是numpy抱怨形状不匹配。我尝试遍历a并将元素x附加到每个项目,但是更改未反映出来。 关于如何实现此目标的任何想法?
73 python  numpy 

12
Python:区分行向量和列向量
有没有一种很好的方法来区分python中的行向量和列向量?到目前为止,我正在使用numpy和scipy,到目前为止,我看到的是,如果我要给一个向量,说 from numpy import * Vector = array([1,2,3]) 他们无法说天气,我的意思是行或列向量。此外: array([1,2,3]) == array([1,2,3]).transpose() True 在“现实世界”中哪一个根本是不正确的。我意识到上述模块中向量上的大多数功能都不需要区分。例如,outer(a,b)或者a.dot(b)我想为自己的方便而与众不同。
73 python  arrays  numpy  vector  scipy 

3
使用OpenCV在Python中反转图像
我想加载彩色图像,将其转换为灰度,然后反转文件中的数据。 我需要的是:遍历OpenCV中的数组并使用此公式更改每个值(这可能是错误的,但对我来说似乎很合理): img[x,y] = abs(img[x,y] - 255) 但我不明白为什么它不起作用: def inverte(imagem, name): imagem = abs(imagem - 255) cv2.imwrite(name, imagem) def inverte2(imagem, name): for x in np.nditer(imagem, op_flags=['readwrite']): x = abs(x - 255) cv2.imwrite(name, imagem) if __name__ == '__main__': nome = str(sys.argv[1]) image = cv2.imread(nome) gs_imagem = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) inverte(gs_imagem, "invertida.png") inverte2(gs_imagem, …

6
从python生成电影而无需将单个帧保存到文件
我想根据我在matplotlib中的python脚本中生成的帧创建h264或divx电影。这部电影大约有10万张。 在网络上的示例中[例如 1],我只看到了将每个帧另存为png,然后在这些文件上运行mencoder或ffmpeg的方法。就我而言,保存每一帧是不切实际的。有没有办法获取从matplotlib生成的图并将其直接传输到ffmpeg,而不会生成任何中间文件? 用ffmpeg的C-api编程对我来说太困难了[例如。2]。另外,我需要一种具有良好压缩效果的编码,例如x264,因为电影文件对于后续步骤来说太大了。因此,最好坚持使用mencoder / ffmpeg / x264。 管道[3]有什么可以做的吗? [1] http://matplotlib.sourceforge.net/examples/animation/movie_demo.html [2]如何使用x264 C API将一系列图像编码为H264? [3] http://www.ffmpeg.org/ffmpeg-doc.html#SEC41


6
稀疏的3D矩阵/数组在Python中?
在scipy中,我们可以使用scipy.sparse.lil_matrix()等构造一个稀疏矩阵。但是该矩阵是二维的。 我想知道Python中是否存在稀疏3d矩阵/数组(张量)的数据结构? ps我在3d中有很多稀疏数据,需要张量来存储/执行乘法。如果没有现有的数据结构,是否有实现此类张量的建议?

4
垂直连接两个NumPy数组
我尝试了以下方法: >>> a = np.array([1,2,3]) >>> b = np.array([4,5,6]) >>> np.concatenate((a,b), axis=0) array([1, 2, 3, 4, 5, 6]) >>> np.concatenate((a,b), axis=1) array([1, 2, 3, 4, 5, 6]) 但是,我希望至少有一个结果像这样 array([[1, 2, 3], [4, 5, 6]]) 为什么它不是垂直连接的?


3
LogisticRegression:未知标签类型:在python中使用sklearn的“ continuous”
我有以下代码来测试sklearn python库的一些最流行的ML算法: import numpy as np from sklearn import metrics, svm from sklearn.linear_model import LinearRegression from sklearn.linear_model import LogisticRegression from sklearn.tree import DecisionTreeClassifier from sklearn.neighbors import KNeighborsClassifier from sklearn.discriminant_analysis import LinearDiscriminantAnalysis from sklearn.naive_bayes import GaussianNB from sklearn.svm import SVC trainingData = np.array([ [2.3, 4.3, 2.5], [1.3, 5.2, 5.2], [3.3, 2.9, …

2
为什么Numpy中的0d数组不视为标量?
当然,0d数组是标量的,但Numpy似乎并不这么认为...我是否缺少某些内容?还是我只是误解了这个概念? >>> foo = numpy.array(1.11111111111, numpy.float64) >>> numpy.ndim(foo) 0 >>> numpy.isscalar(foo) False >>> foo.item() 1.11111111111
72 python  numpy 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.