歡迎您來到潮人地東莞seo博客,本站專業免費分享多元化的seo網站優化技術干貨以及解答seo各種常見問題的博客網站

熱門關鍵詞: seo優化 seo推廣 seo技術 seo博客 seo網站推廣怎么做 seo怎么做 新手做seo怎么做
當前位置:seo博客首頁 > seo技術分享 >

seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)

發布時間:2023-08-20 21:24:02 文章出處:潮人地東莞seo博客 作者:東莞seo博客 閱讀數量:

潮人地東莞seo博客小編下面跟大家分享關于seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)等問題,希望seo專員在做seo優化的過程中有所幫助,內容僅供參考。

前言

由于公司有大量域名信息需要定期查看是否需要續期,前期都是人工操作比較耗時、耗力。所以衍生了這個小工具。

實現了查詢域名到期時間、并且將近7天內到期的域名在Excel中標紅,當然你也可以添加短信提醒和郵件提醒

代碼步驟1、將域名粘貼到指定txt文件中

比如:domain.txt

seo博客相關推薦閱讀:seo優化技術:塔城seo網站優化(塔城網站推廣)

2、將指定txt文件中內容讀取到list中

# 批量讀取文件中的域名defread_file(filePath):withopen(filePath, "r") asf: # 打開文件data = f.readlines() # 讀取文件returndata3、通過某網站獲取域名到期時間

# 通過某網站獲取域名到期時間 def geseo實戰課堂外推快速排名t_expiry_date(url_list): url_expiry_date_list = [] forurl inurl_list: url_expiry_date_dict = {} time.sleep(random.randrange(3)) req_whois = urllib.request.urlopen('http://whois.xxxxxx.com/'+ url) result = req_whois.read().decode() html = etree.HTML(result) endTimes = html.xpath('//a[@]/preceding-sibling::span[1]/text()') iflen(endTimes) > 0: endTime = endTimes[0].replace('年', '-').replace('月', '-').replace('日', '') else: errorInfo = html.xpath('//p[@]') endTime = errorInfo[0].xpath('string(.)').strip() url_expiry_date_dict['url'] = url.replace('\n', '') url_expiry_date_dict['endTime'] = endTime pprint.pprint(url_expiry_date_dict) url_expiry_date_list.append(url_expiry_date_dict) pprint.pprint(url_expiry_date_list) returnurl_expiry_date_list4、將結果寫入Excel文件

# 寫入Excel文件def write_excel(domain_list): # 創建一個新的文件withxlsxwriter.Workbook('host_ip.xlsx') asworkbook: # 添加一個工作表worksheet = workbook.add_worksheet('域名信息') # 設置一個加粗的格式bold = workbook.add_format({"bold": True}) # 分別設置一下 A 和 B 列的寬度worksheet.set_column('A:A', 50) worksheet.set_column('B:B', 15) # 先把表格的抬頭寫上,并設置字體加粗worksheet.write('A1', '域名', bold) worksheet.write('B1', '信息', bold) # 設置數據寫入文件的初始行和列的索引位置row= 1col= 0fordomain_ex_date indomain_list: url= domain_ex_date['url'] endTime = domain_ex_date['endTime'] currDate = datetime.today().date() try: endDate = datetime.strptime(endTime, "%Y-%m-%d").date() diffDate = endDate - currDate ifdiffDate.days <= 7: style= workbook.add_format({'font_color': "red"}) else: style= workbook.add_format({'font_color': "black"}) except: style= workbook.add_format({'font_color': "red"}) pprint.pprint(url+ ': '+ endTime) worksheet.write(row, col, url, style) worksheet.write(row, col+ 1, endTime, style) row+= 15、運行

urls = read_file('domain.txt') urls_list = get_expiry_date(urls) write_excel(urls_list)

運行結果:

seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)

6、完整代碼

#!/usr/bin/env python# -*- coding: utf-8 -*-# Author:高效碼農import pprint import time import random import xlsxwriter from datetime import datetime import urllib.request from lxml import etree # 批量讀取文件中的域名def read_file(filePath): withopen(filePath, "r") asf: # 打開文件data= f.readlines() # 讀取文件returndata# 通過某網站獲取域名到期時間defget_expiry_date(url_list): url_expiry_date_list = [] forurlinurl_list: url_expiry_date_dict = {} time.sleep(random.randrange(3)) req_whois = urllib.request.urlopen('http://whois.xxxxxx.com/'+ url) result= req_whois.read().decode() html = etree.HTML(result) endTimes = html.xpath('//a[@]/preceding-sibling::span[1]/text()') iflen(endTimes) > 0: endTime = endTimes[0].replace('年', '-').replace('月', '-').replace('日', '') else: errorInfo = html.xpath('//p[@]') endTime = errorInfo[0].xpath('string(.)').strip() url_expiry_date_dict['url'] = url.replace('\n', '') url_expiry_date_dict['endTime'] = endTime pprint.pprin東莞seo優化網站排名t(url_expiry_date_dict) url_expiry_date_list.append(url_expiry_date_dict) pprint.pprint(url_expiry_date_list) returnurl_expiry_date_list # 寫入Excel文件defwrite_excel(domain_list): # 創建一個新的文件withxlsxwriter.Workbook('host_ip.xlsx') asworkbook: # 添加一個工作表worksheet = workbook.add_worksheet('域名信息') # 設置一個加粗的格式bold = workbook.add_format({"bold": True}) # 分別設置一下 A 和 B 列的寬度worksheet.set_column('A:A', 50) worksheet.set_column('B:B', 15) # 先把表格的抬頭寫上,并設置字體加粗worksheet.write('A1', '域名', bold) worksheet.write('B1', '信息', bold) # 設置數據寫入文件的初始行和列的索引位置row= 1col= 0fordomain_ex_date indomain_list: url= domain_ex_date['url'] endTime = domain_ex_date['endTime'] currDate = datetime.today().date() try: endDate = datetime.strptime(endTime, "%Y-%m-%d").date() diffDate = endDate - currDate ifdiffDate.days <= 7: style= workbook.add_format({'font_color': "沈陽優化seo排名前十red"}) else: style= workbook.add_format({'font_color': "black"}) except: style= workbook.add_format({'font_color': "red"}) pprint.pprint(url+ ': '+ endTime) worksheet.write(row, col, url, style) worksheet.write(row, col+ 1, endTime, style) row+= 1urls = read_file('domain.txt') urls_list = get_expiry_date(urls) write_excel(urls_list)

以上是潮人地東莞seo博客跟大家分享關于seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)等問題,希望能對大家有所幫助,若有不足之處,請諒解,我們大家可以一起討論關于網站seo優化排名的技巧,一起學習,以上內容僅供參考。

閱讀全文
本文標題"seo技術:Python批量查詢域名whois信息(到期域名時間查詢小工具)":http://www.420113.com/jsfx_25476.html
本文版權歸潮人地seo博客所有,歡迎轉載,但未經作者同意必須在文章頁面給出原文連接,否則保留追究法律責任的權利。
標簽:
合作伙伴
主站蜘蛛池模板: 日韩人妻系列无码专区| av无码aV天天aV天天爽| 国产成人无码一区二区在线观看| 一本一道VS无码中文字幕| 亚洲精品无码一区二区| 国产精品无码不卡一区二区三区| 国产白丝无码免费视频| 人妻丰满熟妇AV无码区| 久久久久久亚洲Av无码精品专口| 精品久久久久久无码免费| 日韩免费人妻AV无码专区蜜桃| 精品久久久无码中文字幕| 男人的天堂无码动漫AV| 亚洲AV无码久久精品成人| 人妻少妇乱子伦无码专区| 久久水蜜桃亚洲AV无码精品| 免费A级毛片无码A∨免费| 亚洲AV日韩AV永久无码绿巨人| 日韩人妻无码一区二区三区| 精品无码av无码专区| 无码av无码天堂资源网| 无码人妻一区二区三区免费| 无码A级毛片免费视频内谢| 八戒理论片午影院无码爱恋| 人妻无码久久精品人妻| 亚洲AV无码专区在线观看成人| 久久久久av无码免费网| 久久AV高清无码| 欧洲无码一区二区三区在线观看| 亚洲成AV人片在线播放无码| 寂寞少妇做spa按摩无码| 亚洲精品无码久久一线| 中文字幕无码第1页| 亚洲精品无码久久一线| 性无码免费一区二区三区在线 | 蜜桃成人无码区免费视频网站 | 真人无码作爱免费视频| 亚洲日韩精品无码专区| 无码成人AAAAA毛片| 国产爆乳无码视频在线观看3| 无码人妻精品一区二区蜜桃AV|