Questions tagged «csv»

逗号分隔值或字符分隔值(CSV)是一种标准的“平面文件数据库”格式,用于以纯文本格式存储表格数据,由可选的标题行组成,该标题行列出了用逗号或制表符或其他分隔符分隔的表格字段,然后是一行或多行(用换行符分隔),这些行将表记录表示为值的定界列表。换行符和分隔符可以出现在(带引号)字段中。

17
使用Python在Pandas中读取CSV文件时出现UnicodeDecodeError
我正在运行一个程序,正在处理30,000个类似文件。他们中有随机数正在停止并产生此错误... File "C:\Importer\src\dfman\importer.py", line 26, in import_chr data = pd.read_csv(filepath, names=fields) File "C:\Python33\lib\site-packages\pandas\io\parsers.py", line 400, in parser_f return _read(filepath_or_buffer, kwds) File "C:\Python33\lib\site-packages\pandas\io\parsers.py", line 205, in _read return parser.read() File "C:\Python33\lib\site-packages\pandas\io\parsers.py", line 608, in read ret = self._engine.read(nrows) File "C:\Python33\lib\site-packages\pandas\io\parsers.py", line 1028, in read data = self._reader.read(nrows) File "parser.pyx", line 706, …

6
如何避免Python / Pandas在保存的csv中创建索引?
对文件进行一些编辑后,我试图将csv保存到文件夹。 每次我使用pd.to_csv('C:/Path of file.csv')csv文件时,都有单独的索引列。我想避免将索引打印到csv。 我试过了: pd.read_csv('C:/Path to file to edit.csv', index_col = False) 并保存文件... pd.to_csv('C:/Path to save edited file.csv', index_col = False) 但是,我仍然得到不需要的索引列。保存文件时如何避免这种情况?
407 python  csv  indexing  pandas 

15
将多个csv文件导入到pandas中并串联到一个DataFrame中
我想将目录中的多个csv文件读入pandas,并将它们连接成一个大的DataFrame。我还无法弄清楚。这是我到目前为止的内容: import glob import pandas as pd # get data file names path =r'C:\DRO\DCL_rawdata_files' filenames = glob.glob(path + "/*.csv") dfs = [] for filename in filenames: dfs.append(pd.read_csv(filename)) # Concatenate all data into one DataFrame big_frame = pd.concat(dfs, ignore_index=True) 我想我在for循环中需要一些帮助吗???

30
Python Pandas错误标记数据
我正在尝试使用熊猫来操作.csv文件,但出现此错误: pandas.parser.CParserError:标记数据时出错。C错误:第3行中应有2个字段,看到了12 我试图阅读熊猫文档,但一无所获。 我的代码很简单: path = 'GOOG Key Ratios.csv' #print(open(path).read()) data = pd.read_csv(path) 我该如何解决?我应该使用csv模块还是其他语言? 文件来自Morningstar
340 python  csv  pandas 

11
响应内容类型为CSV
我需要在HTTP响应中发送CSV文件。如何将输出响应设置为CSV格式? 这不起作用: Response.ContentType = "application/CSV";
328 asp.net  http  csv 

19
读取CSV文件并将值存储到数组中
我正在尝试读取*.csv-file。 - *.csv文件由用分号(“ ; ”)分隔的两列组成。 我能够*.csv使用StreamReader 读取-file,并能够通过使用Split()函数来分隔每一行。我想将每一列存储到一个单独的数组中,然后显示它。 有可能这样做吗?
317 c#  .net  arrays  csv 

19
命令行CSV查看器?[关闭]
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow 的主题。 2年前关闭。 改善这个问题 有人知道Linux / OS X的命令行CSV查看器吗?我在想类似的东西,less但以更易读的方式将列隔开。(我可以用OpenOffice Calc或Excel打开它,但这样做太强大了,以至于只按需要查看数据即可。)进行水平和垂直滚动会很棒。
308 linux  macos  command-line  csv 

18
如何将CSV文件导入到MySQL表中?
我有一个来自客户端的非标准化事件日志CSV,我试图将其加载到MySQL表中,以便可以将其重构为合理的格式。我创建了一个名为“ CSVImport”的表,该表的CSV文件的每一列都有一个字段。CSV包含99列,因此这本身就是一项艰巨的任务: CREATE TABLE 'CSVImport' (id INT); ALTER TABLE CSVImport ADD COLUMN Title VARCHAR(256); ALTER TABLE CSVImport ADD COLUMN Company VARCHAR(256); ALTER TABLE CSVImport ADD COLUMN NumTickets VARCHAR(256); ... ALTER TABLE CSVImport Date49 ADD COLUMN Date49 VARCHAR(256); ALTER TABLE CSVImport Date50 ADD COLUMN Date50 VARCHAR(256); 该表上没有任何约束,并且所有字段都包含VARCHAR(256)值,但包含计数(以INT表示),是/否(以BIT表示),价格(以DECIMAL表示)和文本框()的列除外。由TEXT表示)。 我试图将数据加载到文件中: LOAD DATA INFILE …

14
有没有一种方法可以在CSV列中包含逗号而不破坏格式?
我有两列的CSV,其中包含名称和数字。某些人的名字使用逗号,例如,Joe Blow, CFA.该逗号打破了CSV格式,因为它被解释为新列。 我已经读过书,最常见的处方似乎是用一个新值(例如this|that|the, other)替换该字符或分隔符。 我真的很想保留逗号分隔符(我知道excel支持其他定界符,但其他解释器可能不支持)。我还想保留逗号,因为Joe Blow| CFA看起来很傻。 有没有一种方法可以在CSV列中包含逗号而不破坏格式,例如通过转义?
282 csv 


10
使用命令行在Linux中将xlsx转换为csv
我正在寻找一种在Linux上将xlsx文件转换为csv文件的方法。 我不想使用PHP / Perl或类似的东西,因为我正在考虑处理几百万行,所以我需要快速的东西。我在Ubuntu仓库上找到了一个名为xls2csv的程序,但它只能转换xls(Office 2003)文件(我当前正在使用),但是我需要支持较新的Excel文件。 有任何想法吗?
266 linux  excel  csv  converter  xlsx 

17
用C#解析带头的CSV文件
有没有默认/官方/推荐的方法来解析C#中的CSV文件?我不想滚动自己的解析器。 另外,我已经看到有人使用ODBC / OLE DB通过文本驱动程序读取CSV的实例,由于它的“缺点”,很多人不赞成这样做。这些缺点是什么? 理想情况下,我正在寻找一种方法,可以使用第一条记录作为标题/字段名称来按列名读取CSV。给出的一些答案是正确的,但是基本上可以将文件反序列化为类。
265 c#  csv  file-io  io  header 

30
如何在C ++中读取和解析CSV文件?
我需要在C ++中加载和使用CSV文件数据。此时,它实际上只能是逗号分隔的解析器(即,不必担心转义新行和逗号)。主要需求是逐行解析器,每次调用该方法时,它将为下一行返回一个向量。 我发现这篇文章看起来很有希望:http : //www.boost.org/doc/libs/1_35_0/libs/spirit/example/fundamental/list_parser.cpp 我从未使用过Boost的Spirit,但愿意尝试。但是只有在没有更直接的解决方案时,我才忽略了这一点。
264 c++  parsing  text  csv 



By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.