本文總結(jié)的是我們大家在python中常見的數(shù)據(jù)預(yù)處理方法,以下通過sklearn的preprocessing模塊來介紹;
1. 標(biāo)準(zhǔn)化(Standardization or Mean Removal and Variance Scaling)
變換后各維特征有0均值,單位方差。也叫z-score規(guī)范化(零均值規(guī)范化)。計(jì)算方式是將特征值減去均值,除以標(biāo)準(zhǔn)差。
sklearn.preprocessing.scale(X)
一般會把train和test集放在一起做標(biāo)準(zhǔn)化,或者在train集上做標(biāo)準(zhǔn)化后,用同樣的標(biāo)準(zhǔn)化器去標(biāo)準(zhǔn)化test集,此時(shí)可以用scaler
scaler = sklearn.preprocessing.StandardScaler().fit(train) scaler.transform(train) scaler.transform(test)
實(shí)際應(yīng)用中,需要做特征標(biāo)準(zhǔn)化的常見情景:SVM
2. 最小-最大規(guī)范化
最小-最大規(guī)范化對原始數(shù)據(jù)進(jìn)行線性變換,變換到[0,1]區(qū)間(也可以是其他固定最小最大值的區(qū)間)
min_max_scaler = sklearn.preprocessing.MinMaxScaler() min_max_scaler.fit_transform(X_train)
3.規(guī)范化(Normalization)
規(guī)范化是將不同變化范圍的值映射到相同的固定范圍,常見的是[0,1],此時(shí)也稱為歸一化。
將每個(gè)樣本變換成unit norm。
X = [[ 1, -1, 2],[ 2, 0, 0], [ 0, 1, -1]] sklearn.preprocessing.normalize(X, norm='l2')
得到:
array([[ 0.40, -0.40, 0.81], [ 1, 0, 0], [ 0, 0.70, -0.70]])
可以發(fā)現(xiàn)對于每一個(gè)樣本都有,0.4^2+0.4^2+0.81^2=1,這就是L2 norm,變換后每個(gè)樣本的各維特征的平方和為1。類似地,L1 norm則是變換后每個(gè)樣本的各維特征的絕對值和為1。還有max norm,則是將每個(gè)樣本的各維特征除以該樣本各維特征的最大值。
在度量樣本之間相似性時(shí),如果使用的是二次型kernel,需要做Normalization
4. 特征二值化(Binarization)
給定閾值,將特征轉(zhuǎn)換為0/1
binarizer = sklearn.preprocessing.Binarizer(threshold=1.1) binarizer.transform(X)
5. 標(biāo)簽二值化(Label binarization)
lb = sklearn.preprocessing.LabelBinarizer()
6. 類別特征編碼
有時(shí)候特征是類別型的,而一些算法的輸入必須是數(shù)值型,此時(shí)需要對其編碼。
enc = preprocessing.OneHotEncoder() enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]]) enc.transform([[0, 1, 3]]).toarray() #array([[ 1., 0., 0., 1., 0., 0., 0., 0., 1.]])
上面這個(gè)例子,第一維特征有兩種值0和1,用兩位去編碼。第二維用三位,第三維用四位。
另一種編碼方式
newdf=pd.get_dummies(df,columns=["gender","title"],dummy_na=True)
7.標(biāo)簽編碼(Label encoding)
le = sklearn.preprocessing.LabelEncoder() le.fit([1, 2, 2, 6]) le.transform([1, 1, 2, 6]) #array([0, 0, 1, 2]) #非數(shù)值型轉(zhuǎn)化為數(shù)值型 le.fit(["paris", "paris", "tokyo", "amsterdam"]) le.transform(["tokyo", "tokyo", "paris"]) #array([2, 2, 1])
8.特征中含異常值時(shí)
sklearn.preprocessing.robust_scale
9.生成多項(xiàng)式特征
這個(gè)其實(shí)涉及到特征工程了,多項(xiàng)式特征/交叉特征。
poly = sklearn.preprocessing.PolynomialFeatures(2) poly.fit_transform(X)
原始特征:
轉(zhuǎn)化后:
總結(jié)
以上就是為大家總結(jié)的python中常用的九種預(yù)處理方法分享,希望這篇文章對大家學(xué)習(xí)或者使用python能有一定的幫助,如果有疑問大家可以留言交流。
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯(lián)系: 360901061
您的支持是博主寫作最大的動(dòng)力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長非常感激您!手機(jī)微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
