1. 程式人生 > >pandas學習之concat合併及讀寫CSV檔案

pandas學習之concat合併及讀寫CSV檔案

讀取CSV檔案

讀取中文的CSV檔案中有中文,用“UTF-8”會出現亂碼問題,解決:

import pandas as pd
import numpy as np
data=pd.read_csv('C:/Users/elenawang/Desktop/csv_res_1.csv',header=None,encoding = "gb2312",names=['mobi','loc','time'])

詳細引數:
讀取CSV(逗號分割)檔案到DataFrame
也支援檔案的部分匯入和選擇迭代
更多幫助參見:http://pandas.pydata.org/pandas-docs/stable/io.html


引數:
filepath_or_buffer : str,pathlib。str, pathlib.Path, py._path.local.LocalPath or any object with a read() method (such as a file handle or StringIO)
可以是URL,可用URL型別包括:http, ftp, s3和檔案。對於多檔案正在準備中
本地檔案讀取例項:://localhost/path/to/table.csv

sep : str, default ‘,’
指定分隔符。如果不指定引數,則會嘗試使用逗號分隔。分隔符長於一個字元並且不是‘\s+’,將使用python的語法分析器。並且忽略資料中的逗號。正則表示式例子:’\r\t’

delimiter : str, default None
定界符,備選分隔符(如果指定該引數,則sep引數失效)

delim_whitespace : boolean, default False.
指定空格(例如’ ‘或者’ ‘)是否作為分隔符使用,等效於設定sep=’\s+’。如果這個引數設定為Ture那麼delimiter 引數失效。
在新版本0.18.1支援

header : int or list of ints, default ‘infer’
指定行數用來作為列名,資料開始行數。如果檔案中沒有列名,則預設為0,否則設定為None。如果明確設定header=0 就會替換掉原來存在列名。header引數可以是一個list例如:[0,1,3],這個list表示將檔案中的這些行作為列標題(意味著每一列有多個標題),介於中間的行將被忽略掉(例如本例中的2;本例中的資料1,2,4行將被作為多級標題出現,第3行資料將被丟棄,dataframe的資料從第5行開始。)。
注意:如果skip_blank_lines=True 那麼header引數忽略註釋行和空行,所以header=0表示第一行資料而不是檔案的第一行。

names : array-like, default None
用於結果的列名列表,如果資料檔案中沒有列標題行,就需要執行header=None。預設列表中不能出現重複,除非設定引數mangle_dupe_cols=True。

index_col : int or sequence or False, default None
用作行索引的列編號或者列名,如果給定一個序列則有多個行索引。
如果檔案不規則,行尾有分隔符,則可以設定index_col=False 來是的pandas不適用第一列作為行索引。

usecols : array-like, default None
返回一個數據子集,該列表中的值必須可以對應到檔案中的位置(數字可以對應到指定的列)或者是字元傳為檔案中的列名。例如:usecols有效引數可能是 [0,1,2]或者是 [‘foo’, ‘bar’, ‘baz’]。使用這個引數可以加快載入速度並降低記憶體消耗。

as_recarray : boolean, default False
不贊成使用:該引數會在未來版本移除。請使用pd.read_csv(…).to_records()替代。
返回一個Numpy的recarray來替代DataFrame。如果該引數設定為True。將會優先squeeze引數使用。並且行索引將不再可用,索引列也將被忽略。

squeeze : boolean, default False
如果檔案值包含一列,則返回一個Series

prefix : str, default None
在沒有列標題時,給列新增字首。例如:新增‘X’ 成為 X0, X1, …

mangle_dupe_cols : boolean, default True
重複的列,將‘X’…’X’表示為‘X.0’…’X.N’。如果設定為false則會將所有重名列覆蓋。

dtype : Type name or dict of column -> type, default None
每列資料的資料型別。例如 {‘a’: np.float64, ‘b’: np.int32}

engine : {‘c’, ‘python’}, optional
Parser engine to use. The C engine is faster while the python engine is currently more feature-complete.
使用的分析引擎。可以選擇C或者是python。C引擎快但是Python引擎功能更加完備。

converters : dict, default None
列轉換函式的字典。key可以是列名或者列的序號。

true_values : list, default None
Values to consider as True

false_values : list, default None
Values to consider as False

skipinitialspace : boolean, default False
忽略分隔符後的空白(預設為False,即不忽略).

skiprows : list-like or integer, default None
需要忽略的行數(從檔案開始處算起),或需要跳過的行號列表(從0開始)。

skipfooter : int, default 0
從檔案尾部開始忽略。 (c引擎不支援)

skip_footer : int, default 0
不推薦使用:建議使用skipfooter ,功能一樣。

nrows : int, default None
需要讀取的行數(從檔案頭開始算起)。

na_values : scalar, str, list-like, or dict, default None
一組用於替換NA/NaN的值。如果傳參,需要制定特定列的空值。預設為‘1.#IND’, ‘1.#QNAN’, ‘N/A’, ‘NA’, ‘NULL’, ‘NaN’, ‘nan’`.

keep_default_na : bool, default True
如果指定na_values引數,並且keep_default_na=False,那麼預設的NaN將被覆蓋,否則新增。

na_filter : boolean, default True
是否檢查丟失值(空字串或者是空值)。對於大檔案來說資料集中沒有空值,設定na_filter=False可以提升讀取速度。

verbose : boolean, default False
是否列印各種解析器的輸出資訊,例如:“非數值列中缺失值的數量”等。

skip_blank_lines : boolean, default True
如果為True,則跳過空行;否則記為NaN。

parse_dates : boolean or list of ints or names or list of lists or dict, default False
boolean. True -> 解析索引
list of ints or names. e.g. If [1, 2, 3] -> 解析1,2,3列的值作為獨立的日期列;
list of lists. e.g. If [[1, 3]] -> 合併1,3列作為一個日期列使用
dict, e.g. {‘foo’ : [1, 3]} -> 將1,3列合併,並給合併後的列起名為”foo”

infer_datetime_format : boolean, default False
如果設定為True並且parse_dates 可用,那麼pandas將嘗試轉換為日期型別,如果可以轉換,轉換方法並解析。在某些情況下會快5~10倍。

keep_date_col : boolean, default False
如果連線多列解析日期,則保持參與連線的列。預設為False。

date_parser : function, default None
用於解析日期的函式,預設使用dateutil.parser.parser來做轉換。Pandas嘗試使用三種不同的方式解析,如果遇到問題則使用下一種方式。
1.使用一個或者多個arrays(由parse_dates指定)作為引數;
2.連線指定多列字串作為一個列作為引數;
3.每行呼叫一次date_parser函式來解析一個或者多個字串(由parse_dates指定)作為引數。

dayfirst : boolean, default False
DD/MM格式的日期型別

iterator : boolean, default False
返回一個TextFileReader 物件,以便逐塊處理檔案。

chunksize : int, default None
檔案塊的大小, See IO Tools docs for more informationon iterator and chunksize.

compression : {‘infer’, ‘gzip’, ‘bz2’, ‘zip’, ‘xz’, None}, default ‘infer’
直接使用磁碟上的壓縮檔案。如果使用infer引數,則使用 gzip, bz2, zip或者解壓檔名中以‘.gz’, ‘.bz2’, ‘.zip’, or ‘xz’這些為字尾的檔案,否則不解壓。如果使用zip,那麼ZIP包中國必須只包含一個檔案。設定為None則不解壓。
新版本0.18.1版本支援zip和xz解壓

thousands : str, default None
千分位分割符,如“,”或者“.”

decimal : str, default ‘.’
字元中的小數點 (例如:歐洲資料使用’,‘).

float_precision : string, default None
Specifies which converter the C engine should use for floating-point values. The options are None for the ordinary converter, high for the high-precision converter, and round_trip for the round-trip converter.
指定

lineterminator : str (length 1), default None
行分割符,只在C解析器下使用。

quotechar : str (length 1), optional
引號,用作標識開始和解釋的字元,引號內的分割符將被忽略。

quoting : int or csv.QUOTE_* instance, default 0
控制csv中的引號常量。可選 QUOTE_MINIMAL (0), QUOTE_ALL (1), QUOTE_NONNUMERIC (2) or QUOTE_NONE (3)

doublequote : boolean, default True
雙引號,當單引號已經被定義,並且quoting 引數不是QUOTE_NONE的時候,使用雙引號表示引號內的元素作為一個元素使用。

escapechar : str (length 1), default None
當quoting 為QUOTE_NONE時,指定一個字元使的不受分隔符限值。

comment : str, default None
標識著多餘的行不被解析。如果該字元出現在行首,這一行將被全部忽略。這個引數只能是一個字元,空行(就像skip_blank_lines=True)註釋行被header和skiprows忽略一樣。例如如果指定comment=’#’ 解析‘#empty\na,b,c\n1,2,3’ 以header=0 那麼返回結果將是以’a,b,c’作為header。

encoding : str, default None
指定字符集型別,通常指定為’utf-8’. List of Python standard encodings

dialect : str or csv.Dialect instance, default None
如果沒有指定特定的語言,如果sep大於一個字元則忽略。具體檢視csv.Dialect 文件

tupleize_cols : boolean, default False
Leave a list of tuples on columns as is (default is to convert to a Multi Index on the columns)

error_bad_lines : boolean, default True
如果一行包含太多的列,那麼預設不會返回DataFrame ,如果設定成false,那麼會將改行剔除(只能在C解析器下使用)。

warn_bad_lines : boolean, default True
如果error_bad_lines =False,並且warn_bad_lines =True 那麼所有的“bad lines”將會被輸出(只能在C解析器下使用)。

low_memory : boolean, default True
分塊載入到記憶體,再低記憶體消耗中解析。但是可能出現型別混淆。確保型別不被混淆需要設定為False。或者使用dtype 引數指定型別。注意使用chunksize 或者iterator 引數分塊讀入會將整個檔案讀入到一個Dataframe,而忽略型別(只能在C解析器中有效)

buffer_lines : int, default None
不推薦使用,這個引數將會在未來版本移除,因為他的值在解析器中不推薦使用

compact_ints : boolean, default False
不推薦使用,這個引數將會在未來版本移除
如果設定compact_ints=True ,那麼任何有整數型別構成的列將被按照最小的整數型別儲存,是否有符號將取決於use_unsigned 引數

use_unsigned : boolean, default False
不推薦使用:這個引數將會在未來版本移除
如果整數列被壓縮(i.e. compact_ints=True),指定被壓縮的列是有符號還是無符號的。
memory_map : boolean, default False
如果使用的檔案在記憶體內,那麼直接map檔案使用。使用這種方式可以避免檔案再次進行IO操作

pandas合併concat

  • axis合併方向

    axis=0橫向合併
    axis=1縱向合併

df1 = pd.DataFrame(np.ones((3,4))*0, columns=['a','b','c','d'])
df2 = pd.DataFrame(np.ones((3,4))*1, columns=['a','b','c','d'])
df3 = pd.DataFrame(np.ones((3,4))*2, columns=['a','b','c','d'])

res=pd.concat([df1,df2,df3],axis=0)

print(res)

   a    b    c    d
0  0.0  0.0  0.0  0.0
1  0.0  0.0  0.0  0.0
2  0.0  0.0  0.0  0.0
0  1.0  1.0  1.0  1.0
1  1.0  1.0  1.0  1.0
2  1.0  1.0  1.0  1.0
0  2.0  2.0  2.0  2.0
1  2.0  2.0  2.0  2.0
2  2.0  2.0  2.0  2.0
res1=pd.concat([df1,df2,df3],axis=1)
     a    b    c    d    a    b    c    d    a    b    c    d
0  0.0  0.0  0.0  0.0  1.0  1.0  1.0  1.0  2.0  2.0  2.0  2.0
1  0.0  0.0  0.0  0.0  1.0  1.0  1.0  1.0  2.0  2.0  2.0  2.0
2  0.0  0.0  0.0  0.0  1.0  1.0  1.0  1.0  2.0  2.0  2.0  2.0

注意到上邊的index沒有重置

  • ignore_index=True 重置index
res2=pd.concat([df1,df2,df3],axis=0,ignore_index=True)

print(res2)

     a    b    c    d
0  0.0  0.0  0.0  0.0
1  0.0  0.0  0.0  0.0
2  0.0  0.0  0.0  0.0
3  1.0  1.0  1.0  1.0
4  1.0  1.0  1.0  1.0
5  1.0  1.0  1.0  1.0
6  2.0  2.0  2.0  2.0
7  2.0  2.0  2.0  2.0
8  2.0  2.0  2.0  2.0
  • join 合併方式
    join=’outer’為預設值,因此未設定任何引數時,函式預設join=’outer’。此方式是依照column來做縱向合併,有相同的column上下合併在一起,其他獨自的column個自成列,原本沒有值的位置皆以NaN填充
#定義資料集
df1 = pd.DataFrame(np.ones((3,4))*0, columns=['a','b','c','d'], index=[1,2,3])
df2 = pd.DataFrame(np.ones((3,4))*1, columns=['b','c','d','e'], index=[2,3,4])

#縱向"外"合併df1與df2
res = pd.concat([df1, df2], axis=0, join='outer')

print(res)

     a    b    c    d    e
1  0.0  0.0  0.0  0.0  NaN
2  0.0  0.0  0.0  0.0  NaN
3  0.0  0.0  0.0  0.0  NaN
2  NaN  1.0  1.0  1.0  1.0
3  NaN  1.0  1.0  1.0  1.0
4  NaN  1.0  1.0  1.0  1.0

ioin=’inter’只有相同的column合併在一起,其他的會被拋棄


#縱向"內"合併df1與df2
res = pd.concat([df1, df2], axis=0, join='inner')

#列印結果
print(res)
#     b    c    d
# 1  0.0  0.0  0.0
# 2  0.0  0.0  0.0
# 3  0.0  0.0  0.0
# 2  1.0  1.0  1.0
# 3  1.0  1.0  1.0
# 4  1.0  1.0  1.0

#重置index並列印結果
res = pd.concat([df1, df2], axis=0, join='inner', ignore_index=True)
print(res)
#     b    c    d
# 0  0.0  0.0  0.0
# 1  0.0  0.0  0.0
# 2  0.0  0.0  0.0
# 3  1.0  1.0  1.0
# 4  1.0  1.0  1.0
# 5  1.0  1.0  1.0
  • join_axes 依照axes合併
#定義資料集
df1 = pd.DataFrame(np.ones((3,4))*0, columns=['a','b','c','d'], index=[1,2,3])
df2 = pd.DataFrame(np.ones((3,4))*1, columns=['b','c','d','e'], index=[2,3,4])

#依照`df1.index`進行橫向合併
res = pd.concat([df1, df2], axis=1, join_axes=[df1.index])

#列印結果
print(res)
#移除join_axes,並列印結果
res = pd.concat([df1, df2], axis=1)
print(res)
#     a    b    c    d    b    c    d    e
# 1  0.0  0.0  0.0  0.0  NaN  NaN  NaN  NaN
# 2  0.0  0.0  0.0  0.0  1.0  1.0  1.0  1.0
# 3  0.0  0.0  0.0  0.0  1.0  1.0  1.0  1.0
# 4  NaN  NaN  NaN  NaN  1.0  1.0  1.0  1
  • apend只有縱向合併,沒有橫向合併
import pandas as pd
import numpy as np

#定義資料集
df1 = pd.DataFrame(np.ones((3,4))*0, columns=['a','b','c','d'])
df2 = pd.DataFrame(np.ones((3,4))*1, columns=['a','b','c','d'])
df3 = pd.DataFrame(np.ones((3,4))*1, columns=['a','b','c','d'])
s1 = pd.Series([1,2,3,4], index=['a','b','c','d'])

#將df2合併到df1的下面,以及重置index,並打印出結果
res = df1.append(df2, ignore_index=True)
print(res)
#     a    b    c    d
# 0  0.0  0.0  0.0  0.0
# 1  0.0  0.0  0.0  0.0
# 2  0.0  0.0  0.0  0.0
# 3  1.0  1.0  1.0  1.0
# 4  1.0  1.0  1.0  1.0
# 5  1.0  1.0  1.0  1.0

#合併多個df,將df2與df3合併至df1的下面,以及重置index,並打印出結果
res = df1.append([df2, df3], ignore_index=True)
print(res)
#     a    b    c    d
# 0  0.0  0.0  0.0  0.0
# 1  0.0  0.0  0.0  0.0
# 2  0.0  0.0  0.0  0.0
# 3  1.0  1.0  1.0  1.0
# 4  1.0  1.0  1.0  1.0
# 5  1.0  1.0  1.0  1.0
# 6  1.0  1.0  1.0  1.0
# 7  1.0  1.0  1.0  1.0
# 8  1.0  1.0  1.0  1.0

#合併series,將s1合併至df1,以及重置index,並打印出結果
res = df1.append(s1, ignore_index=True)
print(res)
#     a    b    c    d
# 0  0.0  0.0  0.0  0.0
# 1  0.0  0.0  0.0  0.0
# 2  0.0  0.0  0.0  0.0
# 3  1.0  2.0  3.0  4.0

寫CSV檔案

import pandas as pd  
a = ['one','two','three']  
b = [1,2,3]  
english_column = pd.Series(a, name='english')  
number_column = pd.Series(b, name='number')  
predictions = pd.concat([english_column, number_column], axis=1)  
#another way to handle  
save = pd.DataFrame({'english':a,'number':b})  
save.to_csv('b.txt',index=False,sep='')