必赢亚洲手机app下载


迅雷下载的法则

<实训|766net必赢亚洲手机版第四日>偷偷让新手的Linux无限重启附linux主机名称不是随便乱改的!

python爬虫beautifulsoup4连串3【转发】

本篇转自博客:巴黎-悠悠

原稿地址:http://www.cnblogs.com/yoyoketang/tag/beautifulsoup4/

前言

本篇手把手教大家怎么着爬取网站上的图片,并保存到当地电脑

 

一、目的网站

1.随便打开一个风景图的网站:http://699pic.com/sousuo-218808-13-1.html

2.用firebug定位,打开firepath里css定位目的图片

3.从下图可以见到,所有的图形都是img标签,class属性都是lazy

 

二、用find_all找出装有的竹签

1.find_all(class_=”lazy”)获取具有的图片对象标签

2.从标签里面提出jpg的url地址和title

766net必赢亚洲手机版 1

 1 # coding:utf-8
 2 from bs4 import BeautifulSoup
 3 import requests
 4 import os
 5 r = requests.get("http://699pic.com/sousuo-218808-13-1.html")
 6 fengjing = r.content
 7 soup = BeautifulSoup(fengjing, "html.parser")
 8 # 找出所有的标签
 9 images = soup.find_all(class_="lazy")
10 # print images # 返回list对象
11 
12 for i in images:
13     jpg_rl = i["data-original"]  # 获取url地址
14     title = i["title"]           # 返回title名称
15     print title
16     print jpg_rl
17     print ""

766net必赢亚洲手机版 2

 

三、保存图片

1.在脚下剧本文件夹下成立一个jpg的子文件夹

766net必赢亚洲手机版,2.导入os模块,os.getcwd()这么些方法可以得到当前剧本的门径

3.用open打开写入当地电脑的文书路径,命名为:os.getcwd()+”\\jpg\\”+title+’.jpg’(命名重复的话,会被掩盖掉)

4.requests里get打开图片的url地址,content方法重临的是二进制流文件,可以一直写到本地

 

四、参考代码

766net必赢亚洲手机版 3

 1 # coding:utf-8
 2 from bs4 import BeautifulSoup
 3 import requests
 4 import os
 5 r = requests.get("http://699pic.com/sousuo-218808-13-1.html")
 6 fengjing = r.content
 7 soup = BeautifulSoup(fengjing, "html.parser")
 8 # 找出所有的标签
 9 images = soup.find_all(class_="lazy")
10 # print images # 返回list对象
11 
12 for i in images:
13     jpg_rl = i["data-original"]
14     title = i["title"]
15     print title
16     print jpg_rl
17     print ""
18     with open(os.getcwd()+"\\jpg\\"+title+'.jpg', "wb") as f:
19         f.write(requests.get(jpg_rl).content)

766net必赢亚洲手机版 4

相关文章

No Comments, Be The First!
近期评论
    功能
    网站地图xml地图