首先需要说明一下,该篇文章是以python3为基础的,python2是否适合没有验证过。
由于python编码问题确实比较多,文章篇幅可能较长,请耐心看完,或者参照目录进行阅读。
目录:
一、 简单的编码介绍
平常我们可能听说过很多编码格式,如 ASCII码,Unicode,utf-8,gbk等等。为了不让文章臃肿,所以在这不再赘述,如想了解,请跳转到这个链接。
[各种字符编码介绍][1]
但是py3里,只有 unicode编码格式 的字节串才能叫作str。
其他编码格式的统统都叫bytes,如:gbk,utf-8,gb2312…………
在py3中,==Unicode编码就像是一个枢纽==,例如gbk的格式要想转化成utf-8,那么必须先转化成Unicode,然后再从Unicode转化成utf-8。
![python编码][2]
二、老大难的文件操作
> python各种各样的扩展卡确实给我们带来了极大的方便,但是对于初学者而言,编码问题却一而再再而三的出现,尤其以文件操作最为明显(反正我是这样的)
接下来将主要介绍文件读写操作和文件编码方式检测的方法。
- 文件读写:open还是 codecs.open?
python读写文件估计大家都用open内置函数,但是用open方法打开会有一些问题。open打开文件只能写入str类型,不管字符串是什么编码方式。例如
```
>>> fr = open('test.txt','a')
>>> line1 = "我爱祖国"
>>> fr.write(line1)
```
这样是完全可以的。但是有时候我们爬虫或者其他方式得到一些数据写入文件时会有编码不统一的问题,所以就一般都统一转换为unicode。此时写入open方式打开的文件就有问题了。例如
>>> line2 = u'我爱祖国'
>>> fr.write(line2)
Traceback (most recent call last):
File "", line 1, in
fr.write(line2)
UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-11: ordinal not in range(128)
>>>
怎么办,我们可以将上面的line2编码成str类型,但是太麻烦。我们要把得到的东西先decode为unicode再encode为str。。。
input文件(gbk, utf-8...) ----decode-----> unicode -------encode------> output文件(gbk, utf-8...)
代替这繁琐的操作就是codecs.open,例如
```python
>>> import codecs
>>> fw = codecs.open('test1.txt','a','utf-8')
>>> fw.write(line2)
>>>
```
不会报错,说明写入成功。这种方法可以指定一个编码打开文件,使用这个方法打开的文件读取返回的将是unicode。写入时,如果参数 是unicode,则使用open()时指定的编码进行编码后写入;如果是str,则先根据源代码文件声明的字符编码,解码成unicode后再进行前述 操作。相对内置的open()来说,这个方法比较不容易在编码上出现问题。
- **还是文件读写操作**
> 上文中介绍的codecs.open()方法虽然明显比open要方便好用很多,但是使用这个函数的前提是我们需要知道文件的编码方式,但是事实是我们大多数情况下不知道文件的编码方式,所以一下给出两种解决办法。
* 1.最原始的方法。。。
```python
ways = ["utf-8","gbk","gb2312","ASCII","Unicode"]
for encoding in ways:
print(encoding)
try:
with codecs.open("test.csv","r",encoding=encoding) as f:
data = f.read()
print(type(data))
break
except Exception as e:
pass
```
将python中常用的编码方式用list表示,然后用for循环逐一带入检验。由于utf-8和gbk用的较多,所以建议放在list的最前面。
一旦文件操作成功,则break,跳出循环。
* 2.比较高端的方法
> 可以以bytes的形式对文件进行操作,这样即使不知道文件的编码方式也同样可以进行读写操作了,但是在最后需要进行decode或者encode。
如果对decode和encode不了解,请阅读这篇文章[python编码问题之"encode"&"decode" ][3]
```
with codecs.open("test.csv","rb") as f:
data = f.read()
print(type(data))
encodeInfo = chardet.detect(data)
print(data.decode(encodeInfo["encoding"]))
```
亲测得到的结果如下图
![bytes形式文件操作][4]
解释一下上面的代码中的chardet.detect()
chardet是一个python3自带的库,用于检测文本的编码方式,他会返回一个字典,格式是{=="encoding" **:** "xxx", "confidence" **:**" xxx"==}但是注意它一般只能检测bytes类型的编码格式,比如
```
import chardet
a = "你好"
print(type(a))
chardet.detect(a)
>>>
Traceback (most recent call last):
File "E:\Code\python\Flask\csv-mysql\test.py", line 63, in
chardet.detect(a)
File "C:\Python35\lib\site-packages\chardet\__init__.py", line 25, in detect
raise ValueError('Expected a bytes object, not a unicode object')
ValueError: Expected a bytes object, not a unicode object
```
总结一下:
本文一方面简单介绍了python的编码情况,另一方面介绍了文件操作中会遇到了问题以及解决的办法。
提出的建议是
- 使用codecs.open()打开文件
- 使用bytes方式访问文件,如rb和wb
- 使用chardet.detect()检测bytes类型文本的编码格式,然后再解码(decode)或者编码(encode)
----------
**
End
**
----------
[1]: http://www.cnblogs.com/niceforbear/articles/4534784.html
[2]: ./images/%E7%BC%96%E7%A0%81%E6%A0%BC%E5%BC%8F%E8%BD%AC%E6%8D%A2.png "编码格式转换.png"
[3]: http://blog.163.com/hexin_mars_blog/blog/static/248215040201681533218874/#
[4]: ./images/4.png "4.png"