Spark如何解决读取文本或CSV文件中文乱码的问题

 时间:2024-10-16 19:13:18

1、首先要知道源数倌栗受绽据是什么中文编码,如果编码不是utf-8的话,用默认的方法读取:spark.read.option("茑霁酌绡header","true").csv(path)spark.read.textFile(path)就会有中文乱码。

Spark如何解决读取文本或CSV文件中文乱码的问题

2、运行IntelliJ IDEA,创建好相关的工程

Spark如何解决读取文本或CSV文件中文乱码的问题

3、要了解中文乱码的原因,这是原因上面的方法默认用TextInputFormat,而在TextInputFormat中把编码写死为UTF_8

Spark如何解决读取文本或CSV文件中文乱码的问题

4、读取文本文件的,我们可以spark.sparkContext.hadoopFile的方法中,对字符串的编码进行转换

Spark如何解决读取文本或CSV文件中文乱码的问题

5、如果不知道中文编码,可以遍历使用"GBK"、“GB2312"等可能的中文编码,直到输出结果没中文乱码为止

Spark如何解决读取文本或CSV文件中文乱码的问题

6、如果是读取CSV文件的,也是要用hadoopFile这个低层的方法,先进行中文编码转化,再封装好StructField等的类型

Spark如何解决读取文本或CSV文件中文乱码的问题
  • python如何获取网页中指定的图片保存的路径
  • js如何获取表格的id属性值
  • eclipse怎么将包名相同部分收起来
  • word文档中绘图画布如何添加多行文字
  • 浏览器如何查看json格式的数据
  • 热门搜索
    不停打嗝怎么办 老师评语怎么写 怎么建设网站 微信群聊怎么找 耳屎是怎么形成的 怎么叠衣服 怀疑老公有外遇怎么办 电脑没有声音怎么回事 孕妇感冒喉咙痛怎么办 头皮屑很多怎么办