十年網(wǎng)站開發(fā)經(jīng)驗 + 多家企業(yè)客戶 + 靠譜的建站團隊
量身定制 + 運營維護+專業(yè)推廣+無憂售后,網(wǎng)站問題一站解決
小編給大家分享一下如何使用python爬取當當網(wǎng)所有Python書籍,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
創(chuàng)新互聯(lián)-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設、高性價比弋陽網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式弋陽網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設找我們,業(yè)務覆蓋弋陽地區(qū)。費用合理售后完善,十載實體公司更值得信賴。
任何網(wǎng)站皆可爬取,就看你要不要爬取而已。本次選取的爬取目標是當當網(wǎng),爬取內(nèi)容是 以 Python 為關鍵字搜索出來的頁面中所有書籍的信息。具體如下圖所示:
本次爬取結(jié)果有三項:
圖書的封面圖片
圖書的書名
圖書的鏈接頁面
最后把這三項內(nèi)容保存到 csv 文件中。
總所周知,每個站點的頁面 DOM 樹是不一樣的。所以我們需要先對爬取頁面進行分析,再確定自己要獲取的內(nèi)容,再定義程序爬取內(nèi)容的規(guī)則。
我們可以通過利用瀏覽器來確定URL 地址,為 urllib 發(fā)起請求提供入口地址。接下來,我們就一步步來確定請求地址。
搜索結(jié)果頁面為 1 時,URL 地址如下:
搜索結(jié)果頁面為 3 時,URL 地址如下:
搜索結(jié)果頁面為 21 時,即最后一頁,URL 地址如下:
從上面的圖片中,我們發(fā)現(xiàn) URL 地址的差異就在于 page_index 的值,所以 URL 地址最終為 http://search.dangdang.com/?key=python&act=input&show=big&page_index=
。而 page_index 的值,我們可以通過循環(huán)依次在地址后面添加。因此, urllib 請求代碼可以這樣寫:
有了 URL 地址,就能使用 urllib 獲取到頁面的 html 內(nèi)容。到了這步,我們就需要找到爬取的節(jié)點的規(guī)則,以便于 BeautifulSoup 地解析。為了搞定這個問題,就要祭出大招 —— Chrome 瀏覽器的開發(fā)者功能(按下 F12 鍵就能啟動)。我們按下 F12 鍵盤,依次對每本書進行元素檢查(在頁面使用鼠標右鍵,點擊“檢查”即可),具體結(jié)果如下:
從上圖可以得知解析規(guī)則:每本書的節(jié)點是一個 a 標簽,a 標簽具有 title,href,子標簽 img 的 src 三個屬性,這三者分別對應書名、書的鏈接頁面、書的封圖。看到這里也需你不會小激動,感嘆這不就是我們要感興趣的內(nèi)容嗎?得到解析規(guī)則,編寫B(tài)eautifulSoup 解析代碼就有了思路,具體代碼如下:
運行結(jié)果如下:
這證明剛才制定規(guī)則是正確爬取我們所需的內(nèi)容。
我寫爬蟲程序有個習慣,就是每次都會爬取內(nèi)容持久化到文件中。這樣方便以后查看使用。如果爬取數(shù)據(jù)量比較大,我們可以用其做數(shù)據(jù)分析。我這里為了方便,就將數(shù)據(jù)保存到 csv 文件中。用 Python 將數(shù)據(jù)寫到文件中,我們經(jīng)常中文亂碼問題所煩惱。如果單純使用 csv 庫,可能擺脫不了這煩惱。所以我們將 csv 和 codecs 結(jié)合一起使用。在寫數(shù)據(jù)到 csv 文件的時候,我們可以通過指定文件編碼。這樣中文亂碼問題就迎刃而解。具體代碼如下:
看到這里,你可能會問為什么不把編碼指定為 gb2312 呢,這樣用 ecxel 打開就不會亂碼了?原因是當書名全部為英文單詞時,使用 gb2312 編碼,writer.writerow()會出現(xiàn)編碼錯誤的問題。
如果你要用 excel 打開 PythonBook.csv文件, 你則需多執(zhí)行下面幾步:
1) 打開 Excel
2) 執(zhí)行“數(shù)據(jù)”->“自文本”
3) 選擇 CSV 文件,出現(xiàn)文本導入向?qū)?/p>
4) 選擇“分隔符號”,下一步
5) 勾選“逗號”,去掉“ Tab 鍵”,下一步,完成
6)在“導入數(shù)據(jù)”對話框里,直接點確定
最后,我們將上面代碼整合起來即可。這里就不把代碼貼出來了,具體閱讀原文即可查看源代碼。我就把爬取結(jié)果截下圖:
以上是“如何使用python爬取當當網(wǎng)所有Python書籍”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道!