创建或修改目录:/www/wwwroot/104.219.215.234/data 失败!
性吧有你春暖花开 【全网独家有用】一键爬取微信公众号所有著作,原样保留局面成PDF! - 123性爱网
你的位置:123性爱网 > 色吧5 > 性吧有你春暖花开 【全网独家有用】一键爬取微信公众号所有著作,原样保留局面成PDF!

性吧有你春暖花开 【全网独家有用】一键爬取微信公众号所有著作,原样保留局面成PDF!

发布日期:2024-09-07 04:41    点击次数:133

还在手动截图或复制粘贴保存微信公众号的好著作?告诉你一个更高效的措施,不错让你自动化将你心爱的微信公众号著作保存为PDF,况兼局面不变!这不仅不错帮你舒缓整理、存档著作,还能在作家删除或公众号被封时,还是保留那些珍稀的本色。今天,我将为公共带来一项颠覆性的本事——自动化爬取微信公众号著作并原样保留局面存储为PDF文献!从此告别繁琐性吧有你春暖花开,一键惩处!况兼是全网独此信得过有用代码

一、为何需要下载微信公众号著四肢PDF?

微信公众号四肢咱们取得信息、学习学问的伏击渠说念,每天齐有大批的优质著作线路。但是,有时候咱们会遭逢一些不成预思的情况,比如著作被作家删除、微信公众号被封号等,导致咱们无法再次找到这些好著作。或者,长按复制连气儿,掀开网页版保存,但老是少了点什么——局面、图片性吧有你春暖花开、排版齐备变了样。为了幸免这些缺憾,将著作下载到腹地并保存为PDF局面成为了一个很好的遴荐。PDF局面具有跨平台、不易修改等性情,随机确保著作本色的完好意思性和可读性。

二、奈何终了微信公众号著作一键爬取并保存为PDF

图片

前提准备

学生妹av

1.注册一个个东说念主微信公众号用来取得思要爬取的公众号的永久地址

注册措施:《https://kf.qq.com/faq/120911VrYVrA151009eIrYvy.html》

2.准备python环境并装配相应的第三方库

pip install requests # 这是爬虫必备库pip install pdfkit # 用于转pdf的器具库,有一个exe欺诈设施,# 不错后台私信取得pip install wechatsogou # 取得每一篇著作的api接口pip uninstall Werkzeug # wechatsogou 依赖库默许是3.0.3版块,但是会报各式诞妄pip3 install Werkzeug==0.11.15 # 装配正确版块

3.下载软件wkhtmltox 我会放到网盘里,后台私信'pachong'取得下载连气儿

图片

批量取得微信公众号往期推送的URL、主题和时期性吧有你春暖花开

干涉微信公众号——左侧草稿箱——新的创作—— 在图文剪辑页中遴荐超连气儿——搜索你思要爬取的微信公众堪称号——F12找到央求连气儿——复制curl bash——在curlconvert网站中取得央求地址和央求参数——瓦解取得的成果,得到著作标题、著作时期和著作URL

图片

图片

图片

图片

图片

图片

图片

图片

import requestsimport jsonimport timedef crawl_all_article_url(page):    cookies = {    'appmsglist_action_3948617697': 'card',    'ua_id': 'cPS3GpAA01IEkaRJAAAAAIvDxBMaEL0YwwkNCjBwcAQ=',    'wxuin': '00617100352084',    'mm_lang': 'zh_CN',    'pac_uid': '0_6f1a31a07c4ab',    'iip': '0',    '_qimei_uuid42': '17c1a0b23191007d54d4e4bc638bde211f0338f3bf',    '_qimei_q36': '',    '_qimei_h38': '8f95287254d4e4bc638bde2102000002517c1a',    'RK': 'jTHYN6T3Wp',    'ptcz': '7345f2bcdd021ede2b9e3b5ff3857a614e8f78a9ecdf01650aa9a3a225afd21e',    'pgv_pvid': '8536395802',    'ts_uid': '6019633394',    '__root_domain_v': '.weixin.qq.com',    '_qddaz': 'QD.243806759066417',    'qq_domain_video_guid_verify': '6e9c8245aad0e837',    '_qimei_fingerprint': '36d8e5c4ef2b920cd2da41f5f01ca167',    '_clck': '3902705164|1|fm1|0',    'uuid': '4f9478c2739d6acbb0878a2e7b6c7b35',    'rand_info': 'CAESINjnm2X0Xw6se5Kiw4ayZI9Ft4uFGZEaPM8tGhG8HhAl',    'slave_bizuin': '3902705164',    'data_bizuin': '3902705164',    'bizuin': '3902705164',    'data_ticket': 'DJqUc+FKg56UrvBm8mHaCSI28Je1eBjufcd/Bb1OMvhzcoXTTFoXRMrQIbNGjKtA',    'slave_sid': 'cG5yOWQzc0JrX3BNejZmMEhZWG5yN1JFZ1lzMzVWbW85aDZVRHpuSmw2UGVyaTczRFozdGFDMWpvd2ZQckhMbm5tX0pNc1FkcWNBX3VnbEFDZ29pZ3JLNW5hTEdqbm9ROXIyX01GMW5TeUYzQ2RhbUdoZmtldTJDS3N4eWlDYmR0MUd0ZUtqcmkxYjV0UGZj',    'slave_user': 'gh_19182aefb42a',    'xid': '081913df3456544c4dc84a51fd52778f',    '_clsk': '121cm1q|1716519674628|15|1|mp.weixin.qq.com/weheat-agent/payload/record',}    headers = {        'accept': '*/*',        'accept-language': 'zh-CN,zh;q=0.9,en;q=0.8',        # 'cookie': 'appmsglist_action_3948617697=card; ua_id=cPS3GpAA01IEkaRJAAAAAIvDxBMaEL0YwwkNCjBwcAQ=; wxuin=00617100352084; mm_lang=zh_CN; pac_uid=0_6f1a31a07c4ab; iip=0; _qimei_uuid42=17c1a0b23191007d54d4e4bc638bde211f0338f3bf; _qimei_q36=; _qimei_h38=8f95287254d4e4bc638bde2102000002517c1a; RK=jTHYN6T3Wp; ptcz=7345f2bcdd021ede2b9e3b5ff3857a614e8f78a9ecdf01650aa9a3a225afd21e; pgv_pvid=8536395802; ts_uid=6019633394; __root_domain_v=.weixin.qq.com; _qddaz=QD.243806759066417; qq_domain_video_guid_verify=6e9c8245aad0e837; _qimei_fingerprint=36d8e5c4ef2b920cd2da41f5f01ca167; _clck=3902705164|1|fm1|0; uuid=4f9478c2739d6acbb0878a2e7b6c7b35; rand_info=CAESINjnm2X0Xw6se5Kiw4ayZI9Ft4uFGZEaPM8tGhG8HhAl; slave_bizuin=3902705164; data_bizuin=3902705164; bizuin=3902705164; data_ticket=DJqUc+FKg56UrvBm8mHaCSI28Je1eBjufcd/Bb1OMvhzcoXTTFoXRMrQIbNGjKtA; slave_sid=cG5yOWQzc0JrX3BNejZmMEhZWG5yN1JFZ1lzMzVWbW85aDZVRHpuSmw2UGVyaTczRFozdGFDMWpvd2ZQckhMbm5tX0pNc1FkcWNBX3VnbEFDZ29pZ3JLNW5hTEdqbm9ROXIyX01GMW5TeUYzQ2RhbUdoZmtldTJDS3N4eWlDYmR0MUd0ZUtqcmkxYjV0UGZj; slave_user=gh_19182aefb42a; xid=081913df3456544c4dc84a51fd52778f; _clsk=121cm1q|1716519674628|15|1|mp.weixin.qq.com/weheat-agent/payload/record',        'referer': 'https://mp.weixin.qq.com/cgi-bin/appmsg?t=media/appmsg_edit_v2&action=edit&isNew=1&type=77&createType=0&token=1635832127&lang=zh_CN&timestamp=1716519674285',        'sec-ch-ua': ''Google Chrome';v='123', 'Not:A-Brand';v='8', 'Chromium';v='123'',        'sec-ch-ua-mobile': '?0',        'sec-ch-ua-platform': ''Windows'',        'sec-fetch-dest': 'empty',        'sec-fetch-mode': 'cors',        'sec-fetch-site': 'same-origin',        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36',        'x-requested-with': 'XMLHttpRequest',    }    params = {        'sub': 'list',        'search_field': 'null',        'begin': f'{5*page}',        'count': '5',        'query': '',        'fakeid': 'MzkyMjY2MjMwOQ==',        'type': '101_1',        'free_publish_type': '1',        'sub_action': 'list_ex',        'token': '1635832127',        'lang': 'zh_CN',        'f': 'json',        'ajax': '1',    }    print(params)    response = requests.get('https://mp.weixin.qq.com/cgi-bin/appmsgpublish', params=params, cookies=cookies, headers=headers)    resp = response.json()['publish_page']    # print(response.json())    resp = json.loads(resp)    print(len(resp['publish_list']))    for i in resp['publish_list']:        article_links = []        art_info = json.loads(i['publish_info'])        art_title = art_info['appmsgex'][0]['title']        art_time = art_info['appmsgex'][0]['create_time']        art_date = date = time.strftime('%Y-%m-%d', time.localtime(art_time))        art_link = art_info['appmsgex'][0]['link']        a_info = {            'url': art_link,            'title': art_title,            'time': art_date        }        article_links.append(a_info)    return article_linksarticle_links= []for i in range(7): # 7是微信公众号著作页数    page_link = crawl_all_article_url(i)    print(page_link)    article_links = article_links + page_link     time.sleep(5)     

图片

爬取所有著作并存储为PDF局面

得到著作所有的url之后下一步便是爬取著作的具体本色了,在这里要用到wechatsougo接口,径直pip install 装配会存在依赖库版块问题,主如果库Werkzeug 的版天职歧,老是报错,我在这个场地卡了两天,直到试到版块Werkzeug==0.11.15 才见效,需要你作念的是:

pip uninstall Werkzeug # wechatsogou 依赖库默许是3.0.3版块,但是会报各式诞妄pip3 install Werkzeug==0.11.15 # 装配正确版块
import pdfkitimport wechatsogoudef link_to_pdf(url, title, date):    ws_api = wechatsogou.WechatSogouAPI(captcha_break_time=3)  # 调用接口    content_info = ws_api.get_article_content(url)  # 央求连气儿    content = content_info['content_html']  # 调遣为html局面    # 将标题和著作本色放入如下html中处理一下    html = f'''        <!DOCTYPE html>        <html lang='en'>        <head>            <meta charset='UTF-8'>            <title>{title}</title>        </head>        <body>        <h2 style='text-align: center;font-weight: 400;'>{title}</h2>        {content}        </body>        </html>'''    # wkhtmltopdf可推论设施旅途    path_wkthmltopdf = r'D:\software-dir\wkhtmltox\bin\wkhtmltopdf.exe'    config = pdfkit.configuration(wkhtmltopdf=path_wkthmltopdf)  # 成就pdfkit    pdfkit.from_string(html, f'{title} {date}.pdf',                       configuration=config)  # 转PDF,并按设定好的定名文献    print(f'{title}.pdf 已下载')    for link in article_links:    url = link['url']    title = link['title']    date = link['time']    link_to_pdf(url, title, date)

图片

图片

图片

本站仅提供存储就业,所有本色均由用户发布,如发现存害或侵权本色,请点击举报。

创建或修改目录:/www/wwwroot/104.219.215.234/data 失败!
JzEngine Create File False