scrapy 爬蟲(chóng)框架啟用命令注意事項(xiàng)
1.cd 到你指定的文件夾下;
2.scrapy startproject Spider(項(xiàng)目名字:自定義);
3.cd Spider(cd到你創(chuàng)建的項(xiàng)目下);
4.scrapy genspider example(爬蟲(chóng).py的名字) example.com9(你要訪(fǎng)問(wèn)的域名,不要寫(xiě)http/https協(xié)議);
5.scrapy crawl example(爬蟲(chóng)py.的名字)
在執(zhí)行第4步時(shí),一定要保證在你創(chuàng)建的爬蟲(chóng)項(xiàng)目之下去執(zhí)行命令,否則爬蟲(chóng)文件可以創(chuàng)建成功,但爬蟲(chóng)文件不在spiders下,執(zhí)行第五步時(shí)就會(huì)出現(xiàn)scrapy 沒(méi)有crawl 命令錯(cuò)誤:
Unknown command: crawl
Use "scrapy" to see available commands
總結(jié)確保2點(diǎn):
1.把爬蟲(chóng).py在spiders文件夾里
如執(zhí)行scrapy crawl demo ,spiders里面就要有這個(gè)爬蟲(chóng)文件
2.在項(xiàng)目文件夾內(nèi)執(zhí)行命令
在scrapy.cfg所在文件夾里執(zhí)行命令
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號(hào)聯(lián)系: 360901061
您的支持是博主寫(xiě)作最大的動(dòng)力,如果您喜歡我的文章,感覺(jué)我的文章對(duì)您有幫助,請(qǐng)用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長(zhǎng)非常感激您!手機(jī)微信長(zhǎng)按不能支付解決辦法:請(qǐng)將微信支付二維碼保存到相冊(cè),切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對(duì)您有幫助就好】元
