Questions tagged «graphs»

7
可视化具有一百万个顶点的图形
什么是用于可视化(绘制顶点和边)具有1000000个顶点的图的最佳工具?图中大约有50000条边。而且我可以计算单个顶点和边的位置。 我正在考虑编写一个程序来生成svg。还有其他建议吗?

1
Neo4j vs OrientDB vs泰坦
我正在从事与社会关系挖掘有关的数据科学项目,需要将数据存储在某些图形数据库中。最初,我选择Neo4j作为数据库。但是它接缝了Neo4j的伸缩性不好。我发现的替代方法是Titan和oriebtDB。我走过了这这三个数据库的比较,但我想获得这些数据库的更多细节。所以有人可以帮助我选择最好的人吗?我主要想比较这些数据库的性能,可扩展性,可用的在线文档/教程,Python库支持,查询语言复杂性和图算法支持。还有其他好的数据库选项吗?

3
什么是图形嵌入?
我最近遇到了图嵌入,例如DeepWalk和LINE。但是,我仍然不清楚,因为图形嵌入是什么意思以及何时使用它(应用程序)?欢迎任何建议!
13 graphs 

1
如何在图形结构化数据上使用Scikit-Learn标签传播?
作为研究的一部分,我对在图形上执行标签传播感兴趣。我对这两种方法特别感兴趣: 朱小金和邹斌·格哈拉玛尼。通过标签传播从标记和未标记的数据中学习。卡内基梅隆大学技术报告CMU-CALD-02-107,2002年http://pages.cs.wisc.edu/~jerryzhu/pub/CMU-CALD-02-107.pdf Dengyong Zhou,Olivier Bousquet,Thomas Navin Lal,Jason Weston,Bernhard Schoelkopf。在本地和全球范围内进行学习(2004)http://citeseer.ist.psu.edu/viewdoc/summary?doi=10.1.1.115.3219 我看到scikit-learn提供了一个做到这一点的模型。但是,该模型应该应用于矢量结构化数据(即数据点)。 该模型使用内核从数据点构建亲和度矩阵,然后在所构建的矩阵上运行算法。我希望能够直接输入图的邻接矩阵来代替相似矩阵。 关于如何实现这一点的任何想法?还是您知道任何Python库都可以直接针对上述两种方法在图结构化数据上运行标签传播? 在此先感谢您的帮助!

1
R中图的库(标签传播算法/频繁的子图挖掘)
问题的一般描述 我有一个图形,其中某些顶点被标记为具有3或4个可能值的类型。对于其他顶点,类型是未知的。我的目标是使用图形来预测未标记顶点的类型。 可能的框架 根据我对文献的阅读,我怀疑这符合标签传播问题的一般框架(例如,请参见本文和本文) 经常被提到的另一种方法是Frequent Subgraph Mining,它包括算法,如SUBDUE,SLEUTH,和gSpan。 发现于R 我设法找到的唯一标签传播实现R是label.propagation.community()在igraph库中。但是,顾名思义,它主要用于查找社区,而不是用于对未标记的顶点进行分类。 似乎也有几个对subgraphMining库的引用(例如,在这里),但是CRAN似乎缺少它。 题 您是否了解所描述任务的库或框架?

3
网络分析经典数据集
有一些用于机器学习分类/回归任务的经典数据集。最受欢迎的是: 鸢尾花数据集 ; 泰坦尼克号数据集 ; 潮流汽车 ; 等等 但是,有人知道类似的数据集用于网络分析/图论吗?更具体-我正在寻找用于比较/评估/学习的Gold标准数据集: 集中度措施; 网络聚类算法。 我不需要大量可公开获得的网络/图表,但是需要几个实际上必须知道的数据集。 编辑: 为“黄金标准数据集”提供确切的功能非常困难,但是这里有一些想法。我认为,真正的经典数据集应满足以下条件: 文章和教科书中有多个参考文献; 包含在著名的网络分析软件包中; 足够的生存时间; 在许多有关图形分析的课程中的用法。 关于我的兴趣领域,我还需要标记顶点的类和/或预先计算(或预定义)的“权限分数”(即中心度估计值)。问完这个问题后,我继续搜索,下面是一些合适的示例: Zachary的空手道俱乐部:成立于1977年,被引用超过1.5k次(根据Google Scholar),顶点具有Faction属性(可用于聚类)。 鄂尔多斯协作网络:不幸的是,我还没有以数据文件的形式找到这个网络,但是它很有名,如果有人用数学家的专业数据丰富网络,它也可以用于测试聚类算法。
10 dataset  graphs 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.