Questions tagged «csv»

逗号分隔值或字符分隔值(CSV)是一种标准的“平面文件数据库”格式,用于以纯文本格式存储表格数据,由可选的标题行组成,该标题行列出了用逗号或制表符或其他分隔符分隔的表格字段,然后是一行或多行(用换行符分隔),这些行将表记录表示为值的定界列表。换行符和分隔符可以出现在(带引号)字段中。


3
将Dbeaver上的结果集导出为CSV
通常,我在Windows上使用Dbeaver,并且总是像这样导出结果集: 运行我的查询->选择结果->导出结果集->选择导出到剪贴板->完成 此步骤将结果集放置到剪贴板中,并且可以将其粘贴到任何要使用它的地方。 问题是,现在我在Mac上使用dbeaver,并且本指南无法正常工作。我可以继续操作,直到选择下图所示的结果集为止: 但是,一旦我在此过程中走得更远,在最后一步中,我得到:没有查询 请注意,在“源”中假设显示了源自结果集的查询,但只说了“选择”。 结果,它不会选择我的结果或任何内容(“成功”除外)。 通常,我的查询会自动显示在这里,而我在菜单中找不到可以解决此问题的任何选项。
71 sql  csv  dbeaver 

6
尽管每列都使用varchar(MAX),但导入CSV文件时SQL Server中出现错误
我正在尝试将CS​​V文件(几个演出)插入其中SQL Server,但是一旦我通过Import Wizard并最终尝试导入该文件,就会收到以下错误报告: 执行(错误)消息 错误0xc02020a1:数据流任务1:数据转换失败。“列标题”列的数据转换返回状态值4和状态文本“文本已被截断或目标代码页中的一个或多个字符不匹配”。 (SQL Server Import and Export Wizard) 错误0xc020902a:数据流任务1:“源-Train_csv.Outputs [平面文件源输出] .Columns [“标题”]“由于发生截断而失败,并且截断行位于“源-Train_csv.Outputs [平面文件源”上输出] .Columns [“标题”]“指定截断失败。在指定组件的指定对象上发生了截断错误。 (SQL Server Import and Export Wizard) 错误0xc0202092:数据流任务1:处理数据行2上的文件“ C:\ Train.csv”时发生错误。 (SQL Server Import and Export Wizard) 错误0xc0047038:数据流任务1:SSIS错误代码DTS_E_PRIMEOUTPUTFAILED。Source-Train_csv上的PrimeOutput方法返回错误代码0xC0202092。当管道引擎调用PrimeOutput()时,该组件返回失败代码。故障代码的含义由组件定义,但错误是致命的,并且管道停止执行。在此之前可能会发布错误消息,其中包含有关失败的更多信息。 (SQL Server Import and Export Wizard) 我创建了将文件插入到其中的表,然后将每一列都设置为容纳varchar(MAX),所以我不明白如何仍然会遇到这种截断问题。我究竟做错了什么?
70 sql  sql-server  csv 

8
如何使用Python从URL读取CSV文件?
当我卷曲到API调用链接时http://example.com/passkey=wedsmdjsjmdd curl 'http://example.com/passkey=wedsmdjsjmdd' 我以csv文件格式获取员工输出数据,例如: "Steve","421","0","421","2","","","","","","","","","421","0","421","2" 如何使用python解析。 我试过了: import csv cr = csv.reader(open('http://example.com/passkey=wedsmdjsjmdd',"rb")) for row in cr: print row 但它不起作用,我出现了一个错误 http://example.com/passkey=wedsmdjsjmdd No such file or directory: 谢谢!


8
不允许重复的“ row.names”错误
我正在尝试加载具有14列的csv文件,如下所示: StartDate, var1, var2, var3, ..., var14 当我发出此命令时: systems <- read.table("http://getfile.pl?test.csv", header = TRUE, sep = ",") 我收到一条错误消息。 不允许重复的row.name 在我看来,第一列名称是造成此问题的原因。当我手动下载文件并StartDate从文件中删除名称时,R成功读取该文件并将第一列名称替换为X。有人可以告诉我怎么回事吗?该文件是(逗号分隔)的csv文件。
69 r  csv  r-faq 

7
如何在CSV文件中同时转义逗号和双引号?
我正在编写一个Java应用程序以将数据从Oracle导出到CSV文件 不幸的是,数据的内容可能非常棘手。分隔符仍然是逗号,但连续的某些数据可能像这样: | ID | FN | LN | AGE | COMMENT | |----------------------------------------------------------------| | 123 | John | Smith | 39 | I said "Hey, I am 5'10"." | |----------------------------------------------------------------| 因此,这是该comment列上的字符串之一: 我说:“我是5'10”。 别开玩笑了,我需要在Java生成的CSV文件中的excel或开放式办公室中显示以上注释,而又不能妥协,当然也不能弄乱其他常规的转义情况(即,常规的双引号和元组中的常规逗号)。我知道正则表达式功能强大,但是在如此复杂的情况下如何实现目标呢?
68 java  regex  excel  oracle  csv 

15
如何在Node.js中将CSV转换为JSON
我正在尝试将csv文件转换为json。我在用 。 CSV示例: a,b,c,d 1,2,3,4 5,6,7,8 ... 所需的JSON: {"a": 1,"b": 2,"c": 3,"d": 4}, {"a": 5,"b": 6,"c": 7,"d": 8}, ... 我尝试了node-csv解析器库。但是输出类似于数组,与我预期的不一样。 我正在使用Node 0.8和express.js,希望就如何轻松实现这一目标提出建议。

12
如何从Spark中的CSV文件中跳过标题?
假设我给出了三个要读取的Spark上下文的文件路径,并且每个文件的第一行都有一个架构。我们如何从标题中跳过模式行? val rdd=sc.textFile("file1,file2,file3") 现在,我们如何跳过此rdd的标题行?

1
读取并解析TSV文件,然后对其进行处理以保存为CSV(*高效*)
我的源数据在一个TSV文件中,包含6列和超过200万行。 这是我要完成的工作: 我需要读取此源文件中3列(3、4、5)中的数据 第五列是整数。我需要使用此整数值来复制行条目,并使用第三和第四列中的数据(按整数倍)。 我想将#2的输出写入CSV格式的输出文件。 以下是我想到的。 我的问题:这是一种有效的方法吗?尝试进行200万行时,它似乎很密集。 首先,我制作了一个示例选项卡单独的文件以供使用,并将其命名为“ sample.txt”。它是基本的,只有四行: Row1_Column1 Row1-Column2 Row1-Column3 Row1-Column4 2 Row1-Column6 Row2_Column1 Row2-Column2 Row2-Column3 Row2-Column4 3 Row2-Column6 Row3_Column1 Row3-Column2 Row3-Column3 Row3-Column4 1 Row3-Column6 Row4_Column1 Row4-Column2 Row4-Column3 Row4-Column4 2 Row4-Column6 然后我有这段代码: import csv with open('sample.txt','r') as tsv: AoA = [line.strip().split('\t') for line in tsv] for a in …

3
如何定义Raku语法来解析TSV文本?
我有一些TSV数据 ID Name Email 1 test test@email.com 321 stan stan@nowhere.net 我想将其解析为哈希列表 @entities[0]<Name> eq "test"; @entities[1]<Email> eq "stan@nowhere.net"; 我在使用换行元字符来分隔标题行和值行时遇到麻烦。我的语法定义: use v6; grammar Parser { token TOP { <headerRow><valueRow>+ } token headerRow { [\s*<header>]+\n } token header { \S+ } token valueRow { [\s*<value>]+\n? } token value { \S+ } } my …
13 csv  grammar  raku 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.