Python解析网页上的json数据并保存到EXCEL!

Python解析网页上的json数据并保存到EXCEL!

这篇文章主要为大家详细介绍了如何使用python解析网页上的json数据并保存到EXCEL,文中的示例代码讲解详细,感兴趣的可以了解下。

安装必要的库

1
2
3
4
5
6
7
import requests
import pandas as pd
import os
import sys
import io
import urllib3
import json

 

测试数据

网页上的数据结构如下

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
{
"success": true,
"code": "CIFM_0000",
"encode": null,
"message": "ok",
"url": null,
"total": 3,
"items": [
{
"summaryDate": "20240611",
"summaryType": "naturalDay",
"workday": true,
"newCustNum": 1,
"haveCustNum": 1691627,
"newAccountNum": 2,
"haveAccountNum": 1692934,
"totalShare": 4947657341.69,
"netCash": -3523387.25,
"yield": 0.01386
},
{
"summaryDate": "20240612",
"summaryType": "naturalDay",
"workday": true,
"newCustNum": 5,
"haveCustNum": 1672766,
"newAccountNum": 5,
"haveAccountNum": 1674071,
"totalShare": 4927109080.29,
"netCash": -20735233.55,
"yield": 0.01387
},
{
"summaryDate": "20240613",
"summaryType": "naturalDay",
"workday": true,
"newCustNum": 4,
"haveCustNum": 1662839,
"newAccountNum": 5,
"haveAccountNum": 1664146,
"totalShare": 4927405885.59,
"netCash": 110659.8,
"yield": 0.01389
}
],
"data": null,
"info": null
}

详细逻辑代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
import requests
import pandas as pd
import os
import sys
import io
import urllib3
import json
urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)
sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='utf-8')
url = "https://ip/ma/web/trade/dailySummary?startDate={pi_startdate}&endDate={pi_enddate}"
headers = {
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7",
"Accept-Language": "zh-CN,zh;q=0.9",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36 Edg/119.0.0.0",
}
def save_data(data, columns, excel_path, sheet_name):
df = pd.DataFrame(data, columns=columns)
if not os.path.exists(excel_path):
df.to_excel(excel_path, sheet_name=sheet_name, index=False)
else:
with pd.ExcelWriter(excel_path, engine='openpyxl', mode='a') as writer:
df.to_excel(writer, sheet_name=sheet_name, index=False)
def json2list(response_text):
# 把json数据转化为python用的类型
json_dict = json.loads(response_text)
src_total = json_dict["total"]
print("src_total: {}".format(src_total))
items = json_dict["items"]
excel_columns = ['summaryDate',
'summaryType',
'workday',
'newCustNum',
'haveCustNum',
'newAccountNum',
'haveAccountNum',
'totalShare',
'netCash',
'yield'
]
excel_data = []
# 使用XPath定位元素并打印内容
for item in items:
excel_row_data = []
for column_index in range(len(excel_columns)):
data = str(item[excel_columns[column_index]])
if excel_columns[column_index] == 'workday':
data = str(0 if data == "False" else 1)
excel_row_data.append(data)
excel_data.append(excel_row_data)
trg_total = len(excel_data)
# 稽核
print("trg_total: {}".format(trg_total))
vn_biasval = trg_total - src_total
if vn_biasval != 0:
print("This audit-rule is not passed,diff: {}".format(vn_biasval))
exit(-1)
else:
print("This audit-rule is passed,diff: {}".format(vn_biasval))
return excel_columns, excel_data
if __name__ == '__main__':
try:
excel_path = "C:/xxx/temp/ylb_dailySummary_{pi_startdate}_{pi_enddate}.xlsx"
sheet_name = 'result_data'
pi_startdate = 20240611
pi_enddate = 20240613
excel_path = excel_path.format(pi_startdate=pi_startdate, pi_enddate=pi_enddate)
url = url.format(pi_startdate=pi_startdate, pi_enddate=pi_enddate)
print("url:{}".format(url))
print("excel_path:{}".format(excel_path))
response_text = requests.get(url, headers=headers, timeout=(21, 300), verify=False).content.decode("utf8")
excel_columns, excel_data = json2list(response_text)
print("=================excel_columns=======================")
print(excel_columns)
print("=================excel_data==========================")
for x in excel_data:
print(x)
print("=====================================================")
# 文件存在,则删除
if os.path.exists(excel_path):
os.remove(excel_path)
# 保存文件
save_data(excel_data, excel_columns, excel_path, sheet_name)
print("save_data is end.")
except Exception as e:
print("[ERROR]:" + str(e))
exit(-1)

代码解析

1.请求头

构造请求头

1
2
3
4
5
6
7
8
9
urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)
sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='utf-8')
url = "https://ip/ma/web/trade/dailySummary?startDate={pi_startdate}&endDate={pi_enddate}"
headers = {
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7",
"Accept-Language": "zh-CN,zh;q=0.9",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36 Edg/119.0.0.0",
}

2.数据保存到excel

如果excel已经存在,那么则会将数据追加到excel中

1
2
3
4
5
6
7
def save_data(data, columns, excel_path, sheet_name):
df = pd.DataFrame(data, columns=columns)
if not os.path.exists(excel_path):
df.to_excel(excel_path, sheet_name=sheet_name, index=False)
else:
with pd.ExcelWriter(excel_path, engine='openpyxl', mode='a') as writer:
df.to_excel(writer, sheet_name=sheet_name, index=False)

解析json数据获取字段名称以及对应的数据list列表

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
def json2list(response_text):
# 把json数据转化为python用的类型
json_dict = json.loads(response_text)
src_total = json_dict["total"]
print("src_total: {}".format(src_total))
items = json_dict["items"]
excel_columns = ['summaryDate',
'summaryType',
'workday',
'newCustNum',
'haveCustNum',
'newAccountNum',
'haveAccountNum',
'totalShare',
'netCash',
'yield'
]
excel_data = []
# 使用XPath定位元素并打印内容
for item in items:
excel_row_data = []
for column_index in range(len(excel_columns)):
data = str(item[excel_columns[column_index]])
if excel_columns[column_index] == 'workday':
data = str(0 if data == "False" else 1)
excel_row_data.append(data)
excel_data.append(excel_row_data)
trg_total = len(excel_data)
# 稽核
print("trg_total: {}".format(trg_total))
vn_biasval = trg_total - src_total
if vn_biasval != 0:
print("This audit-rule is not passed,diff: {}".format(vn_biasval))
exit(-1)
else:
print("This audit-rule is passed,diff: {}".format(vn_biasval))
return excel_columns, excel_data

3.测试方法入口

1
if __name__ == '__main__':

测试结果

会生成ylb_dailySummary_20240611_20240613.xlsx文件

20241114113027626

以上就是python解析网页上的json数据并保存到EXCEL的详细内容。

 

 

学习资料见知识星球。

以上就是今天要分享的技巧,你学会了吗?若有什么问题,欢迎在下方留言。

快来试试吧,小琥 my21ke007。获取 1000个免费 Excel模板福利​​​​!

更多技巧, www.excelbook.cn

欢迎 加入 零售创新 知识星球,知识星球主要以数据分析、报告分享、数据工具讨论为主;

2022021703525891-158

你将获得:

1、价值上万元的专业的PPT报告模板。

2、专业案例分析和解读笔记。

3、实用的Excel、Word、PPT技巧。

4、VIP讨论群,共享资源。

5、优惠的会员商品。

6、一次付费只需99元,即可下载本站文章涉及的文件和软件。

文章版权声明 1、本网站名称:Excelbook
2、本站永久网址:http://www.excelbook.cn
3、本网站的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,请联系站长王小琥进行删除处理。
4、本站一切资源不代表本站立场,并不代表本站赞同其观点和对其真实性负责。
5、本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报。
6、本站资源大多存储在云盘,如发现链接失效,请联系我们我们会第一时间更新。

THE END
分享
二维码
< <上一篇
下一篇>>