python脚本之批量查询网站权重

爱站批量查网站权重

相信很多人在批量刷野战的时候,会去查看网站的权重吧,然后在决定是否提交给补天还在是盒子。但是不能批量去查询,很困惑,作为我这个菜鸟也很累,一个个查询的。所以写了这个脚本。
参考脚本爱站批量查询网址权重2.0版本。

演示

如果在cmd运行中得先转脚本对应的绝对路径下运行。不然会爆文件不存在的错误。
如果在pycharm等集成环境中使用的话,将脚本文件作为一个项目打开。

将需要查询的网站保存在相同目录下的websites.txt文本中,一行一个网站。

注:本脚本不能保证一次完全都能查询成功,但失败的网站会保存在Query failure.csv文件中,成功的网站会保存在webweight.csv文件中。

下面是最喜欢的环节放代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2020/6/2 13:50
# @Author : 王先森
# @Blog : www.boysec.cn
# @Software: PyCharm
# @Function : 批量查网站权重

import requests
import csv
from lxml import etree
import threading
from queue import Queue
import time
from urllib.parse import urlparse

header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.87 Safari/537.36 SE 2.X MetaSr 1.0'}
class WebWeight(threading.Thread):
def __init__(self,queue):
threading.Thread.__init__(self)
self.queue = queue
def run(self):
while not self.queue.empty():
# 爱站的网站url
aizhanurl = 'https://www.aizhan.com/cha/'
# 获取查询的网站的url
chaxunurl = self.queue.get()
print("[+] 正在查询:"+ chaxunurl)
url = aizhanurl+chaxunurl
time.sleep(4) # 延迟4s
re = requests.get(url, headers=header)
print("[-] 请求url:"+ url)
html = re.text.encode(re.encoding).decode('utf-8')
tree = etree.HTML(html)
tags = tree.xpath('//a[@id="baidurank_br"]//@alt')

# 写入数据
# 如果使用python3就下面这个
with open("webweight.csv", "a+", encoding='utf-8', newline='')as file:
# 如果使用python2就下面这个
# with open("webweight.csv", "a+")as file:
# # 创建csv对象并传参
csvwriter = csv.writer(file)
for tag in tags:
# print(tag)
strtag = str(tag) # 将tag属性转换为字符串
if strtag =='n' or strtag == '0':
csvwriter.writerow(['' + chaxunurl, '' + '0'])
print("[+] 查询结果: "+ chaxunurl+" 权重:"+ str(0))
else:
csvwriter.writerow(['' + chaxunurl, '' + tag])
print("[+] 查询结果: " + chaxunurl + " 权重:" + tag)

def main():
with open("webweight.csv", "a", encoding='utf-8', newline='')as file:
csvwriter = csv.writer(file)
csvwriter.writerow(['weburl','weight'])
threads = [] # 线程集
# 线程数
threads_count = 5
# 队列
# 如果是使用python3就修改下面
# queue = Queue()
# queue = Queue.Queue()
queue = Queue()
with open("websites.txt", "r")as file:
file_content = file.readlines()
for i in file_content:
# 文件读取中字符串结尾会有\r\n
j = i.strip('\n').strip('\r')
url = urlparse(j)
if url.netloc:
queue.put(url.netloc)
else:
queue.put(url.path)

for i in range(threads_count):
# 添加线程
threads.append(WebWeight(queue))
# 线程的开始与加入
for i in threads:
time.sleep(1)
i.start()

for i in threads:
time.sleep(1)
i.join()

print("Results saved in webweight.csv")

if __name__ == '__main__':
main()