色婷婷狠狠18禁久久YY,CHINESE性内射高清国产,国产女人18毛片水真多1,国产AV在线观看

如何查詢mysql實(shí)例名,python爬蟲怎么做

如何查詢mysql實(shí)例名,python爬蟲怎么做?

Python,可以幫忙搶票,可以爬蟲東西,關(guān)于Python爬蟲怎么做?今天教大家一個(gè)案例,python爬蟲多線程實(shí)戰(zhàn):爬取美桌1080p壁紙圖片 | 技術(shù)

技術(shù)點(diǎn)分析

· 爬蟲requests

· 多線程threading

· 文件io讀寫操作

· xpath 提取ur

· 正則

實(shí)戰(zhàn)

· 分析url

搞清楚各個(gè)url 的關(guān)聯(lián)win4000.com/wallpaper_205_0_10_1.html

URL中與分類的關(guān)系:

wallpaper : 桌面壁紙

205 :壁紙分類對(duì)應(yīng)大陸明星

10 :圖片尺寸對(duì)應(yīng)1920*1080

分析到這一部,我們知道 ,如果要需要其他類型的壁紙,只需要更改網(wǎng)站分類代碼就可以了。

· 谷歌 charme ,通過右鍵檢查

chrame 瀏覽器右鍵提示。

按圖順序,依次找到對(duì)應(yīng)的html標(biāo)簽。

通過查看,我們發(fā)現(xiàn) 中間展示 的圖片是由一個(gè)ul 標(biāo)簽包裹的 多個(gè)Li

我們所要跳轉(zhuǎn)的鏈接 就在 Li 標(biāo)簽中, 這時(shí)就需要使用xpath進(jìn)行數(shù)據(jù)的提取。

到此,我們第一層url 的分析就完成了。可以寫出以下代碼段。

此時(shí)通過xpath 獲到當(dāng)前頁面中的 ul 中所有l(wèi)i 標(biāo)簽了。

那單個(gè)明星的跳轉(zhuǎn)鏈接只需要再次xpath 進(jìn)行提取就Ok了。

完成到這里你的代碼運(yùn)行結(jié)果應(yīng)該如下:是兩個(gè)列表list。

運(yùn)行結(jié)果

準(zhǔn)備下載圖片

到這,完成第一步,你已經(jīng)成功獲到 每個(gè)明星的跳轉(zhuǎn)鏈接 :

url: win4000.com/wallpaper_detail_153895.html

再次進(jìn)行url 的分析:

初步分析

通過上圖的分析,可以找到這張圖,是我們要 1080規(guī)格的。但很可惜,一共9張,現(xiàn)在只能找到一張圖片的url。

選其中兩張圖片地址對(duì)比:

pic1.win4000.com/wallpaper/2018-12-26/5c22eb195abe8.jpg

pic1.win4000.com/wallpaper/2018-12-26/5c22eb1c722dc.jpg

好像就是后面文件名不同。如果一張張取是不是很麻煩?

不信你自己去試一下。點(diǎn)再分析一下頁面,有個(gè) 【查看原圖】 選項(xiàng),點(diǎn)一下試試呢?

點(diǎn)擊上圖出,點(diǎn)完發(fā)現(xiàn)了url的變化。

再看看有沒有驚喜的地方 :

上圖為url分析。

通過上圖的分析 ,我們發(fā)現(xiàn)原來這個(gè)big頁面有我們想要的所有 1080P的圖片,而且,全是用ul 包裹,放到單個(gè)Li 標(biāo)簽中 。那簡單了,用之前的辦法 再提取一次,就出來了。代碼如下:

到這里,我們第一步就完成了一頁24個(gè)明星圖片的地址url的爬取。第二步,完成了單個(gè)明星的1080圖片地址url的爬取。下一步,我們把圖片保存到本地就順利結(jié)束。

圖片保存

按需求,要單獨(dú)到一個(gè)文件夾內(nèi)。那我們就需要在本地路徑內(nèi) 創(chuàng)建對(duì)應(yīng)的文件夾。此處使用 star_img_name 列表中的值。需要使用到i/o讀寫操作。

順利完成 這個(gè)需求:

源碼展示

代碼運(yùn)行結(jié)果若不同,可看一眼源碼:

運(yùn)行起來是不是很慢(完善版使用多線程),而且這樣看代碼,是不是有種:干干巴巴的,麻麻咧咧的,一點(diǎn)都不圓潤,盤他!!

完善版是可以完成可選分類,可選規(guī)格 ,多線程版。希望這個(gè)小實(shí)戰(zhàn)案例可以幫到大家。

有關(guān)于Python爬蟲的課程:

Python爬蟲數(shù)據(jù)挖掘基礎(chǔ)教程

python網(wǎng)絡(luò)爬蟲第一天

python網(wǎng)絡(luò)爬蟲第二天

有想學(xué)習(xí)的小伙伴,可以關(guān)注黑馬程序員,后臺(tái)回復(fù)“Python爬蟲”哦!