如何在pyspark中更改数据框列名称?


201

我来自熊猫背景,习惯于将CSV文件中的数据读取到数据帧中,然后使用简单的命令将列名更改为有用的东西:

df.columns = new_column_name_list

但是,这在使用sqlContext创建的pyspark数据帧中无效。我能想到的唯一解决方案是:

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

这基本上是两次定义变量,然后首先推断模式,然后重命名列名,然后使用更新后的模式再次加载数据框。

有没有像我们在大熊猫中那样做的更好,更有效的方法?

我的Spark版本是1.5.0

Answers:


334

有很多方法可以做到这一点:

  • 选项1.使用selectExpr

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
  • 选项2。使用withColumnRenamed时,请注意,此方法允许您“覆盖”同一列。对于Python3,请替换xrangerange

    from functools import reduce
    
    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
  • 选项3.使用 别名,在Scala中,您还可以将as用作

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
  • 选项4.使用sqlContext.sql,它使您可以在DataFrames注册为表的地方使用SQL查询。

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+

1
我用for循环+ 做到了withColumnRenamed,但您的reduce选择非常好:)
费利佩·杰拉德

1
好吧,因为直到在DF上调用动作之前,Spark都无法完成任何工作,所以代码就不太优雅了……最终,得到的DF完全一样!
菲利佩·杰拉德

2
@FelipeGerard请检查这篇文章,如果您有很多列,可能会发生不好的事情。
阿尔贝托·邦桑托

1
@AlbertoBonsanto如果有100多个列,如何选择列作为别名,这是最好的选择

3
@NuValue,您应该先运行from functools import reduce
joaofbsm

168
df = df.withColumnRenamed("colName", "newColName")
       .withColumnRenamed("colName2", "newColName2")

使用这种方式的优势:对于长列列表,您只想更改几个列名。在这些情况下,这可能非常方便。连接具有重复列名的表时非常有用。


此解决方案是否有一种变体,可保留所有其他列不变?使用此方法以及其他方法,仅保留显式命名的列(所有其他列均已删除)
Quetzalcoatl

1
+1对我来说效果很好,只是编辑了指定的列,而其他列保持不变,也没有删除任何列。
mnis.p

2
@Quetzalcoatl此命令似乎仅更改指定的列,同时保留所有其他列。因此,一个很棒的命令仅重命名了可能的许多列名称之一
user989762

@ user989762:同意;我最初的理解是不正确的...!
Quetzalcoatl

61

如果要更改所有列名称,请尝试 df.toDF(*cols)


5
就其简洁性和执行性而言,此解决方案在每个OP中最接近df.columns = new_column_name_list。
Quetzalcoatl

我认为应该选择最佳答案
HanaKaze

对我来说,我是从pandas数据df = df.toDF(*my_pandas_df.columns)
框中

这个答案使我感到困惑。从旧列名称到新名称之间是否应该没有映射?通过使用cols新的列名,并假设名称cols的顺序与数据框的列顺序相对应,是否可以工作?
rbatt

47

如果您想对所有列名应用简单的转换,则此代码可以解决问题:(我用下划线替换所有空格)

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)

感谢@ user8117731的toDf把戏。


13

如果要重命名单个列,并保留其余的原样:

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])

13

df.withColumnRenamed('age', 'age2')


1
Pankaj Kumar的答案Alberto Bonsanto的答案(分别来自2016年和2015年)已经建议使用withColumnRenamed
安德鲁·迈尔斯

谢谢,是的,但是有两种不同的语法,也许我们应该将它们收集为更正式的答案?data.withColumnRenamed(oldColumns [idx],newColumns [idx])与data.withColumnRenamed(columnname,new columnname)我认为这取决于您使用的pyspark版本
Sahan Jayasumana,

1
这不是不同的语法。唯一的区别是您没有将列名存储在数组中。
Ed Bordin

13

这是我使用的方法:

创建pyspark会话:

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()

创建数据框:

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])

查看具有列名称的df:

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+

用新的列名创建一个列表:

newcolnames = ['NameNew','AmountNew','ItemNew']

更改df的列名:

for c,n in zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)

使用新的列名查看df:

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+

9

我提供了一个易于使用的函数来为pyspark数据帧重命名多个列,以防有人使用它:

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)

请注意,两个列表的长度必须相同。


1
这项工作做得很好。不过,对于我需要的东西,有些过分了。而且您可以通过df,因为old_columns它与相同df.columns
Darth Egregious

6

重命名一个列的另一种方法(使用import pyspark.sql.functions as F):

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')

3

我用这个:

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()

2
尽管此代码段可以解决问题,但提供说明确实有助于提高您的帖子质量。请记住,您将来会为读者回答这个问题,而这些人可能不知道您提出代码建议的原因。
伊斯玛'18

1

您可以使用以下函数来重命名数据框的所有列。

def df_col_rename(X, to_rename, replace_with):
    """
    :param X: spark dataframe
    :param to_rename: list of original names
    :param replace_with: list of new names
    :return: dataframe with updated names
    """
    import pyspark.sql.functions as F
    mapping = dict(zip(to_rename, replace_with))
    X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
    return X

如果只需要更新几个列名,则可以在replace_with列表中使用相同的列名

重命名所有列

df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])

重命名一些列

df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])

0

对于单列重命名,您仍然可以使用toDF()。例如,

df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()

0

我们可以使用各种方法来重命名列名称。

首先,让我们创建一个简单的DataFrame。

df = spark.createDataFrame([("x", 1), ("y", 2)], 
                                  ["col_1", "col_2"])

现在,让我们尝试将col_1重命名为col_3。PFB有几种方法可以做到相同。

# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()

# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()

# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()

# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()

这是输出。

+-----+-----+
|col_3|col_2|
+-----+-----+
|    x|    1|
|    y|    2|
+-----+-----+

我希望这有帮助。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.