如[1]中所述,t-SNE的工作方式是逐渐减小Kullback-Leibler(KL)散度,直到满足特定条件为止。t-SNE的创建者建议使用KL散度作为可视化的性能标准:
您可以比较t-SNE报告的Kullback-Leibler差异。十次运行t-SNE并选择KL散度最低的解决方案是非常好的[2]
我尝试了t-SNE的两种实现:
- python:sklearn.manifold.TSNE()。
- R:tsne,来自库(tsne)。
这两种实现都在设置详细程度后为每次迭代输出错误(Kullback-Leibler散度)。但是,它们不允许用户获取此信息,这对我来说有点奇怪。
例如,代码:
import numpy as np
from sklearn.manifold import TSNE
X = np.array([[0, 0, 0], [0, 1, 1], [1, 0, 1], [1, 1, 1]])
model = TSNE(n_components=2, verbose=2, n_iter=200)
t = model.fit_transform(X)
产生:
[t-SNE] Computing pairwise distances...
[t-SNE] Computed conditional probabilities for sample 4 / 4
[t-SNE] Mean sigma: 1125899906842624.000000
[t-SNE] Iteration 10: error = 6.7213750, gradient norm = 0.0012028
[t-SNE] Iteration 20: error = 6.7192064, gradient norm = 0.0012062
[t-SNE] Iteration 30: error = 6.7178683, gradient norm = 0.0012114
...
[t-SNE] Error after 200 iterations: 0.270186
现在,据我所知,0.270186应该是吉隆坡的背离。但是我无法从模型或t(这是一个简单的numpy.ndarray)中获取此信息。
为了解决这个问题,我可以:i)自己计算KL散度,ii)在python中做一些令人讨厌的事情,以捕获和解析TSNE()函数的输出[3]。但是:i)重新计算KL散度是非常愚蠢的,当TSNE()已经计算出它时,ii)在代码方面会有点不寻常。
您还有其他建议吗?是否有使用此库获取此信息的标准方法?
我提到我尝试过R的tsne库,但是我更希望答案集中在python sklearn实现上。
参考文献
[2] http://homepage.tudelft.nl/19j49/t-SNE.html
[3] /programming/16571150/how-to-capture-stdout-output-from-a-python-function-call