使用python爬取4K壁纸保存到本地文件夹的全过程!

使用python爬取4K壁纸保存到本地文件夹的全过程!

图片信息丰富多彩,许多网站上都有大量精美的图片资源,有时候我们可能需要批量下载这些图片,而手动一个个下载显然效率太低,所以本文给大家介绍了使用python爬取4K壁纸保存到本地文件夹的全过程,文中有详细的代码示例供大家参考,需要的朋友可以参考下

图片信息丰富多彩,许多网站上都有大量精美的图片资源。有时候我们可能需要批量下载这些图片,而手动一个个下载显然效率太低。因此,编写一个简单的网站图片爬取程序可以帮助我们高效地获取所需的图片资源。

目标网站:

202403270854031

如果出现模块报错

202403270854032

进入控制台输入:建议使用国内镜像源

1
pip install 模块名称 -i https://mirrors.aliyun.com/pypi/simple

我大致罗列了以下几种国内镜像源:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
清华大学
https://pypi.tuna.tsinghua.edu.cn/simple
阿里云
https://mirrors.aliyun.com/pypi/simple/
豆瓣
https://pypi.douban.com/simple/
百度云
https://mirror.baidu.com/pypi/simple/
中科大
https://pypi.mirrors.ustc.edu.cn/simple/
华为云
https://mirrors.huaweicloud.com/repository/pypi/simple/
腾讯云
https://mirrors.cloud.tencent.com/pypi/simple/

效果图:

202403270854033

代码详解:

get_imgurl_list(url, imgurl_list) 函数用来获取指定页面中的图片链接,并将这些链接存储在 imgurl_list 列表中。

  • 使用 requests.get(url=url, headers=headers) 发起请求获取页面内容。
  • 使用 etree.HTML(html_str) 将页面内容转换为 etree 对象,方便后续使用 XPath 进行解析。
  • 通过 XPath 定位到图片链接,并添加到 imgurl_list 中。

get_down_img(imgurl_list) 函数用来下载图片到本地存储。

  • 创建名为 "美女" 的文件夹用于存储下载的图片。
  • 遍历 imgurl_list 中的图片链接,逐个下载图片并保存到本地文件夹中。

在 if __name__ == '__main__': 部分:

  • 设置需要爬取的页数 page_number = 10
  • 循环构建每一页的链接,如 https://www.moyublog.com/95-2-2-{i}.html
  • 调用 get_imgurl_list() 函数获取图片链接。
  • 调用 get_down_img() 函数下载图片到本地。

代码流程:

导入必要的库和模块:

1
2
3
4
import requests  # 用于发送HTTP请求
from lxml import etree  # 用于解析HTML页面
import time  # 用于控制爬取速度
import os  # 用于文件操作

定义函数get_imgurl_list(url, imgurl_list)用于获取图片链接:

1
2
3
4
5
6
7
8
9
10
11
def get_imgurl_list(url, imgurl_list):
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
html_str = response.text
html_data = etree.HTML(html_str)
li_list = html_data.xpath("//ul[@class='clearfix']/li")
for li in li_list:
imgurl = li.xpath(".//a/img/@data-original")[0]
imgurl_list.append(imgurl)
  • 发送GET请求获取网页内容。
  • 将网页内容转换为etree对象以便后续使用xpath进行解析。
  • 使用xpath定位所有的li标签,并遍历每个li标签获取图片链接,将链接添加到imgurl_list列表中。
  • 定义函数get_down_img(imgurl_list)用于下载图片:
1
2
3
4
5
6
7
8
9
10
11
12
def get_down_img(imgurl_list):
os.mkdir("美女")
n = 0
for img_url in imgurl_list:
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'
}
img_data = requests.get(url=img_url, headers=headers).content
img_path = './美女/' + str(n) + '.jpg'
with open(img_path, 'wb') as f:
f.write(img_data)
n += 1
  • 创建名为"美女"的目录用于存放下载的图片。
  • 遍历图片链接列表,逐个发送GET请求下载图片数据,并将图片写入本地文件。每张图片以数字编号命名。

主程序部分:

1
2
3
4
5
6
7
8
if __name__ == '__main__':
page_number = 10  # 爬取页数
imgurl_list = []  # 存放图片链接
for i in range(0, page_number + 1):
url = f'https://www.moyublog.com/95-2-2-{i}.html'
print(url)
get_imgurl_list(url, imgurl_list)
get_down_img(imgurl_list)
  • 设定要爬取的页数page_number为10。
  • 初始化存放图片链接的列表imgurl_list
  • 循环构建每一页的链接并调用get_imgurl_list()函数获取图片链接。
  • 最后调用get_down_img()函数下载图片到本地"美女"文件夹。

为什么我们在获取数据的过程中需要用到IP池

应对反爬虫策略:许多网站会采取反爬虫措施,限制单个IP的访问频率或次数。通过使用数据获取服务,可以轮换多IP来模仿多个用户访问,降低被封禁的风险。

保证稳定性:有些数据获取服务可能存在不稳定的情况,包括IP连接速度慢、IP被找到等问题。通过建立数据获取服务,可以预先准备多个可用的IP地址,确保程序在某个IP不可用时可以快速切换到其他可用IP,提高爬虫程序的稳定性。

提高访问速度:IP池中的多个IP地址可以并发使用,实现多线程或异步请求,从而加快数据获取速度。通过在数据获取服务中保持一定数量的可用IP地址,可以实现更快速的数据抓取。

应对封禁风险:有些网站会根据某些特定的IP地址或IP段进行封禁,如果整个IP池中的IP都被封禁,可以及时更新IP池中的IP地址,避免影响爬虫程序的正常运行。

降低被识别的风险:当爬虫程序使用固定的IP地址进行访问时,容易被网站识别出是爬虫行为。

完整代码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
import requests  # python基础爬虫库
from lxml import etree  # 可以将网页转换为Elements对象
import time  # 防止爬取过快可以睡眠一秒
import os
def get_imgurl_list(url, imgurl_list):
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'}
# 发送请求
response = requests.get(url=url, headers=headers)
# 获取网页源码
html_str = response.text
# 将html字符串转换为etree对象方便后面使用xpath进行解析
html_data = etree.HTML(html_str)
# 利用xpath取到所有的li标签
li_list = html_data.xpath("//ul[@class='clearfix']/li")
# 打印一下li标签个数看是否和一页的电影个数对得上
print(len(li_list))  # 输出20,没有问题
for li in li_list:
imgurl = li.xpath(".//a/img/@data-original")[0]
print(imgurl)
# 写入列表
imgurl_list.append(imgurl)
def get_down_img(imgurl_list):
os.mkdir("美女")
n = 0
for img_url in imgurl_list:
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'}
img_data = requests.get(url=img_url, headers=headers).content  #
# 拼接图片存放地址和名字
img_path = './美女/' + str(n) + '.jpg'
# 将图片写入指定位置
with open(img_path, 'wb') as f:
f.write(img_data)
# 图片编号递增
n = n + 1
if __name__ == '__main__':
page_number = 10  # 爬取页数
imgurl_list = []  # 存放图片链接
# 1. 循环构建每页的链接
for i in range(0, page_number + 1):
# 页数拼接
url = f'https://www.moyublog.com/95-2-2-{i}.html'
print(url)
# 2. 获取图片链接
get_imgurl_list(url, imgurl_list)
# 3. 下载图片
get_down_img(imgurl_list)

以上就是使用python爬取4K壁纸保存到本地文件夹的全过程的详细内容。

 

学习资料见知识星球。

以上就是今天要分享的技巧,你学会了吗?若有什么问题,欢迎在下方留言。

快来试试吧,小琥 my21ke007。获取 1000个免费 Excel模板福利​​​​!

更多技巧, www.excelbook.cn

欢迎 加入 零售创新 知识星球,知识星球主要以数据分析、报告分享、数据工具讨论为主;

全IT行业适用微服务的实战课程!

你将获得:

1、价值上万元的专业的PPT报告模板。

2、专业案例分析和解读笔记。

3、实用的Excel、Word、PPT技巧。

4、VIP讨论群,共享资源。

5、优惠的会员商品。

6、一次付费只需99元,即可下载本站文章涉及的文件和软件。

文章版权声明 1、本网站名称:Excelbook
2、本站永久网址:http://www.excelbook.cn
3、本网站的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,请联系站长王小琥进行删除处理。
4、本站一切资源不代表本站立场,并不代表本站赞同其观点和对其真实性负责。
5、本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报。
6、本站资源大多存储在云盘,如发现链接失效,请联系我们我们会第一时间更新。

THE END
分享
二维码
< <上一篇
下一篇>>