日韩久久久精品,亚洲精品久久久久久久久久久,亚洲欧美一区二区三区国产精品 ,一区二区福利

Python讀大數據txt

系統 1690 0

如果直接對大文件對象調用 read() 方法,會導致不可預測的內存占用。好的方法是利用固定長度的緩沖區來不斷讀取文件內容。即通過yield。

??? 在用Python讀一個兩個多G的txt文本時,天真的直接用readlines方法,結果一運行內存就崩了。

??? 還好同事點撥了下,用yield方法,測試了下果然毫無壓力。咎其原因,原來是readlines是把文本內容全部放于內存中,而yield則是類似于生成器。

代碼如下:

            
def open_txt(file_name):
  with open(file_name,'r+') as f:
    while True:
      line = f.readline()
      if not line:
        return
      yield line.strip()

          

調用實例:

            
for text in open_txt('aa.txt'):
  print text


          

例二:

目標 txt 文件大概有6G,想取出前面1000條數據保存于一個新的 txt 文件中做余下的操作,雖然不知道這樣做有沒有必要但還是先小數據量測試一下吧。參考這個帖子:我想把一個list列表保存到一個Txt文檔,該怎么保存 ,自己寫了一個簡單的小程序。
====================================================

            
import datetime
import pickle

start = datetime.datetime.now()
print "start--%s" % (start)

fileHandle = open ( 'train.txt' )
file2 = open('s_train.txt','w') 

i = 1
while ( i < 10000 ):
  a = fileHandle.readline()
  file2.write(''.join(a)) 
  i = i + 1

fileHandle.close() 
file2.close()

print "done--%s" % ( datetime.datetime.now() - start)

if __name__ == '__main__':
  pass


          

====================================================
pickle 這個庫大家說的很多,官網看看,后面可以好好學習一下。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 上虞市| 宁武县| 抚顺市| 南雄市| 牡丹江市| 武胜县| 江油市| 育儿| 扎囊县| 呼图壁县| 台东县| 曲靖市| 滕州市| 泰来县| 甘泉县| 南部县| 桦川县| 荥经县| 北辰区| 武冈市| 三河市| 南川市| 通榆县| 陆川县| 阜平县| 武冈市| 祁东县| 广元市| 蓬安县| 庆云县| 大渡口区| 略阳县| 石门县| 习水县| 镇平县| 广饶县| 唐山市| 凤山县| 台安县| 晴隆县| 沁源县|