有什么方法可以获取DataFrame的当前分区数?我检查了DataFrame javadoc(spark 1.6),却没有找到用于该方法的方法,还是只是错过了?(对于JavaRDD,有一个getNumPartitions()方法。)
Answers:
您需要调用getNumPartitions()
DataFrame的基础RDD,例如df.rdd.getNumPartitions()
。Scala中的情况下,这是一个无参数方法:df.rdd.getNumPartitions
。
DF
RDD
dataframe.rdd.partitions.size
是df.rdd.getNumPartitions()
或以外的另一种选择df.rdd.length
。
让我用完整的例子向您解释一下...
val x = (1 to 10).toList
val numberDF = x.toDF(“number”)
numberDF.rdd.partitions.size // => 4
为了证明上面有多少分区...将数据帧另存为csv
numberDF.write.csv(“/Users/Ram.Ghadiyaram/output/numbers”)
这是在不同分区上分离数据的方式。
Partition 00000: 1, 2
Partition 00001: 3, 4, 5
Partition 00002: 6, 7
Partition 00003: 8, 9, 10
@Hemanth在评论中问了一个很好的问题...基本上在上述情况下为什么分区数为4
简短答案:取决于您执行的情况。自从我使用local [4]以来,我得到了4个分区。
长答案:
我在本地计算机上运行上述程序,并根据其作为4个分区,将master用作local [4] 。
val spark = SparkSession.builder()
.appName(this.getClass.getName)
.config("spark.master", "local[4]").getOrCreate()
如果它的火花壳在母纱中,我得到的分隔数为2
示例:spark-shell --master yarn
并再次键入相同的命令
scala> val x = (1 to 10).toList
x: List[Int] = List(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)
scala> val numberDF = x.toDF("number")
numberDF: org.apache.spark.sql.DataFrame = [number: int]
scala> numberDF.rdd.partitions.size
res0: Int = 2
--master local
并基于您的Runtime.getRuntime.availableProcessors()
ie local[Runtime.getRuntime.availableProcessors()]
,它将尝试分配那些分区数。如果您可用的处理器数量为12(即local[Runtime.getRuntime.availableProcessors()])
,您有1到10的列表),那么将仅创建10个分区。注意:
如果您使用的是我正在执行Spark程序的12核笔记本电脑,并且默认情况下,分区/任务的数量是所有可用核的数量,即12。这意味着
local[*]
或s"local[${Runtime.getRuntime.availableProcessors()}]")
在这种情况下,只有10个数字,因此它将限制至10
请牢记所有这些指示,我建议您自己尝试
转换为RDD然后获取分区长度
DF.rdd.partitions.length
val df = Seq(
("A", 1), ("B", 2), ("A", 3), ("C", 1)
).toDF("k", "v")
df.rdd.getNumPartitions