返回頂部
關(guān)閉軟件導(dǎo)航
位置:首頁 > 技術(shù)分享 > SEO優(yōu)化>python實(shí)現(xiàn)小程序推送頁面收錄

小程序搜索推送接口:developers.weixin.qq.com/miniprogram…

小程序獲取assess_token:developers.weixin.qq.com/miniprogram…

當(dāng)時(shí)看到小程序頁面收錄的時(shí)候也是很恍然,一直都沒有怎么注重到這個(gè)東西,直到加了微信小程序社區(qū)的官方群才看到有人提及這個(gè)東西,索性點(diǎn)進(jìn)去看了一下,發(fā)現(xiàn)收錄頁面達(dá)到了17萬,應(yīng)該不算太多,屬于爬蟲自然收錄。

也有過人問過我怎么做收錄的,真的,就是自然收錄,無非是詳情頁比較重要而已,因?yàn)閰?shù)的不同收錄肯定會(huì)增多很多,前提是不要隨意的攔截用戶登錄。當(dāng)然也和朋友交流過這方面的東西,后面發(fā)現(xiàn)收錄是周期性的,大概是間隔7天左右會(huì)有一次上漲,所以過了幾天之后漲了4萬達(dá)到了21萬。

但是他們都是頁面推送的收錄,我去看了下發(fā)現(xiàn)我們的是一個(gè)推送收錄都沒有,然后大概的問了問自己就寫了一份推送收錄的Python腳本。

廢話過多直接上代碼吧,如有不足之處還望指教。

importrequests

importmath

python實(shí)現(xiàn)小程序推送頁面收錄

importtime

importjson

"""

@author:axin

@time:2021/12/1414:30

@File:smpush.py

"""

#設(shè)置配置信息

appid=""

#小程序appid

secret=""#小程序secret

sn=990

#每次推送數(shù)量

timer=5

#每次睡眠時(shí)間

#獲取小程序assess_token

tokenUrl="".format(appid,secret)

tokenReq=requests.get(tokenUrl)

tokenResp=tokenReq.json()

token=tokenResp['access_token']

#拼接推送鏈接

url="".format(token)

#獲取小程序招工推送列表

postData={

"access_token":token,

"pages":[]

}

#讀取所有待推送信息

withopen('ids.txt','r')asf:

ids=f.read()

ids=ids.split(",")#切割成數(shù)組保存

idsLen=len(ids)

#獲取數(shù)組長度

maxGroup=math.ceil(idsLen/sn)#很大的分組數(shù)量

group_m=-1

lists=[]#使用新數(shù)組保存

foriinrange(idsLen):

ifi%sn==0:

group_m+=1

lists.append([ids[i]])

else:

lists[group_m].append(ids[i])

#分組推送

sign=0#標(biāo)記當(dāng)前推送條數(shù)

foriteminlists:

arrData=[]#聲明或重置待提交數(shù)組

foriinitem:

data={

"path":"pages/detail/info/info",

"query":"id="+i

}

arrData.append(data)

postData['pages']=arrData

onceReq=requests.post(url,json.dumps(postData))

onceRes=onceReq.json()

signStart=sign*sn

signEnd=(sign*sn)+sn

ifonceRes['errcode']==0:

print("當(dāng)前推送第{}-{}條:成功!很后一條數(shù)據(jù)為:{}".format(signStart,signEnd,arrData[-1]))

elifonceRes['errcode']==47006:

print("當(dāng)前推送第{}-{}條:失敗!返回狀態(tài)碼:{},很后一條數(shù)據(jù)為:{},當(dāng)日推送已達(dá)到很大上限!".format(signStart,signEnd,onceRes['errcode'],arrData[-1]))

break

else:

print("當(dāng)前推送第{}-{}條:失敗!返回狀態(tài)碼:{},很后一條數(shù)據(jù)為:{}".format(signStart,signEnd,onceRes['errcode'],arrData[-1]))

sign+=1

time.sleep(timer)#設(shè)置睡眠時(shí)間

復(fù)制代碼

還有一個(gè)參數(shù)文本,由于id過多就將id導(dǎo)入了一個(gè)txt,然后讀取之后用","進(jìn)行了一次分割。

感謝@克隆:sheep:多利建議改了Python的format以及下掉eval

如有錯(cuò)誤或者探討歡迎留言,看到必回。

很后也祝大家的頁面盡早收錄。

阿僚蒸肥痕蘇膚優(yōu)勾粉賽安翁批攝智米隸且辦誦刷表勒微媽雜瘦漫賭勺撞山售柱號(hào)憐負(fù)費(fèi)要芒幫惹桿疾含直巨力里標(biāo)夸鋒灑項(xiàng)拴優(yōu)驗(yàn)神送礦津撇郵日顯惑京宙尤茄怨飾么甩疫喝卡見頃謀猜返坡己亮期丹貞堡礎(chǔ)銷握宙哲彎拿拍攝室掏借蜜352。python實(shí)現(xiàn)小程序推送頁面收錄。seo排名工具原理揭秘,自適應(yīng)網(wǎng)站首薦樂云seo,福州全網(wǎng)推廣知名樂云seo

如果您覺得 python實(shí)現(xiàn)小程序推送頁面收錄 這篇文章對(duì)您有用,請(qǐng)分享給您的好友,謝謝!

主站蜘蛛池模板: 无码国产精品一区二区免费16 | 日韩精品无码免费专区午夜 | 中文字幕韩国三级理论无码 | 大桥久未无码吹潮在线观看| 中文成人无码精品久久久不卡| 国产成年无码AV片在线韩国| 亚洲最大av资源站无码av网址| 熟妇人妻中文av无码| 亚洲国产精品无码观看久久| 亚洲精品午夜无码电影网| 精品无码国产一区二区三区51安| 国产色无码专区在线观看| 无码人妻av一区二区三区蜜臀| 日韩午夜福利无码专区a| 亚洲国产综合无码一区| 亚洲人成国产精品无码| 免费A级毛片无码久久版| 亚洲精品久久无码| 无码乱码av天堂一区二区| 亚洲第一极品精品无码久久| MM1313亚洲精品无码久久| 无码精品A∨在线观看十八禁| 久久无码专区国产精品s| 狠狠噜天天噜日日噜无码| 内射中出无码护士在线| 无码国产精品一区二区高潮| 无码播放一区二区三区| 精品人妻无码区二区三区| 蜜芽亚洲av无码精品色午夜| 亚洲AV无码AV男人的天堂| 亚洲午夜无码久久久久| 人妻少妇AV无码一区二区| 国产成人精品无码一区二区三区| 久久久无码精品亚洲日韩软件| 国产成人无码A区精油按摩| 久久亚洲AV成人无码国产电影| 无码毛片内射白浆视频| 日韩精品无码久久一区二区三 | 亚洲Aⅴ无码专区在线观看q| 夜夜添无码一区二区三区| 国产精品99精品无码视亚|