今天和大家分享下我近段时间get的新技能,用单线程、多线程和协程三种方式爬取并下载梨视频的小视频,话不多说,我们开始叭。冲鸭冲鸭!
目标
将梨视频上的科技相关的视频资源下载保存到电脑本地
工具
需要用到的第三方库
1) requests # 发送请求2) parsel # 解析数据(支持re, xpath, css)3) fake_useragent # 构建请求头4) random # 生成随机数5) os # 操作路径/生成文件夹6) json # 处理json数据7) concurrent # 处理线程池8) asyncio, aiohttp, aiofiles # 处理协程
分析并使用单线程下载视频
我们需要将梨视频网站上的视频资源下载到电脑本地,那必不可少的两个元素必然是视频名称和视频资源url。获取视频资源url后,针对视频资源的url发起请求,得到响应,再将响应内容以视频名称为名保存到电脑本地即可。
URL地址:https://www.pearvideo.com/category_8
1.分析起始页
F12对起始页刷新抓包,拿到数据请求接口
梨视频(科技)主页
对比观察抓包获取到的url:
https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=12&mrd=0.6312621497255415&filterIds=1745912,1745729,1745750,1745761,1745809,1745640,1745278,1745506,1745193,1606956,1745335,1745147
https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=24&mrd=0.9021185727219558&filterIds=1745912,1745729,1745750,1745254,1745034,1744996,1744970,1744646,1744743,1744838,1744567,1744308,1744225,1744727,1744649
https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=36&mrd=0.6598737970838424&filterIds=1745912,1745729,1745750,1744642,1744353,1744377,1744291,1744127,1744055,1744106,1744126,1744040,1743939,1743997,1744012
对比上方三个url可见,除了其中的start, mrd以及filterIds不同之外,其余部分均为https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=。其中start每次增长为12,即每次加载12段视频;mrd为一个随机数,filterIds即为视频资源的cid号。
2. 发送起始页请求
我们可以根据抓包获取到的信息构建请求,获取响应内容。全文将模仿scrapy框架的写法,将代码封装在一个类之中,再定义不同的函数实现各个阶段的功能。
# 导入需要用到的模块\nimport requests\nfrom parsel import Selector\nfrom fake_useragent import UserAgent\nimport random\nimport json\nimport os
创建类并定义相关函数、属性
class PearVideo:\n def __init__(self, page):\n self.headers = {\n "User-Agent": UserAgent().chrome, # 构建谷歌请求头\n }\n self.page = page # 设置要爬取的页数\n self.base_url = "https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=" \n\n def start_request(self):\n for page in range(self.page):\n start_url = self.base_url + str(page * 12) # 拼接起始页url\n res = requests.get(start_url, headers=self.headers)\n if res.status_code == 200:\n # 将获取到的请求转换成一个parsel.selector.Selector对象,之后方便解析文本;\n # 类似scrapy框架中的response对象,可直接调用re(), xpath()和css()方法。\n selector = Selector(res.text)\n self.parse(selector)
获取到响应之后就可以解析响应文本了,在响应文本中我们可以提取到视频的详情页url及视频名称,代码如下:
3. 解析起始页响应获取视频名称、视频详情页url
此处的视频资源url为:https://video.pearvideo.com/mp4/third/20211028/cont-1744727-11315812-110716-hd.mp4
但是实际获取视频详情页响应后,并没有找到视频资源的url,能找到的只有一张视频图片预览的url,如下图所示(可在浏览器视频详情页,鼠标右键查看网页源代码获取):
于是,我们再次针对视频详情页抓包,找到视频资源url的相关请求和响应内容,如下图所示:
其中的contId即为详情页响应的data-cid属性值(详见下文),而mrd为一个随机值,可通过random.random()生成,在发送请求的时候Referer必不可少,否则将无法获取到正确的响应内容。
点击preview,可以查看请求的响应结果,如下图所示:
在图中,我们可以得到一个后缀为mp4的srcUrl链接,这看起来像是我们需要的视频资源url,但是如果直接使用这个链接发送请求,将会提示如下错误:
对比观察浏览器渲染之后的视频资源url和抓包获取的视频资源url:
浏览器渲染:https://video.pearvideo.com/mp4/third/20211028/cont-1744727-11315812-110716-hd.mp4抓包获取:https://video.pearvideo.com/mp4/third/20211028/1637679343220-11315812-110716-hd.mp4
通过观察可得出,除了上文加黑标粗的部分不同外,其余部分均相同;而其中的1744727即为视频资源的data-cid属性值。
浏览器视频详情页中获取
于是我们可以将抓包所获取到的假的视频资源url中的1637679343220替换为cont-1744727(即视频data-cid属性值),即可获取到真正的视频资源url, 从而下载视频资源!
经过漫长的分析之后,终于可以着手写代码啦!
4. 针对视频详情页url发送请求,获取响应
def parse_ajax(self, ajax_url, init_cid, video_name):\n ajax_res = requests.get(ajax_url, headers=ajax_header)\n fake_video_url = json.loads(ajax_res.text)["videoInfo"]["videos"]["srcUrl"] # 获取假的视频资源url\n fake_cid = fake_video_url.split("/")[-1].split("-")[0] # 从假的视频资源url中抽取假的cid\n real_cid = "cont-" + init_cid # 真的cid等于cont-加上初始的cid\n # 将假的视频资源url中假的cid(fake_cid)替换为真的cid(real_cid)即可得到真正的视频资源url啦!!!\n # 这段代码,你品,你细品…\n real_video_url = fake_video_url.replace(fake_cid, real_cid)\n self.download_video(video_name, real_video_url)
6. 对视频资源url发送请求,获取响应
有了视频名称和视频资源url,就可以下载视频啦!!!
def download_video(self, video_name, video_url):\n video_res = requests.get(video_url, headers=ajax_header)\n video_path = os.path.join(os.getcwd(), "单线程视频下载")\n # 如果不存在则创建视频文件夹存放视频\n if not os.path.exists(video_path):\n os.mkdir(video_path)\n with open(f"{video_path}/{video_name}.mp4", "wb") as video_file:\n video_file.write(video_res.content)\n print(f"{video_name}下载完毕")
最后,定义一个run()方法作为整个类的入口,调用最开始的start_request()函数即可!(套娃,一个函数套另一个函数)
def run(self):\n self.start_request()\n\nif __name__ == '__main__':\n pear_video = PearVideo(3) # 先获取它三页的视频资源\n pear_video.run()
使用线程池下载视频
线程池这部分的代码总体和单线程类似,只是将其中的视频名称和视频资源url单独抽取出来,作为全局变量。获取视频名称和视频资源url这部分仍为单线程,仅在下载视频资源这部分才用了线程池处理,可以同时针对多个视频资源url发送请求获取响应。
主要代码如下:
class PearVideo:\n def __init__(self, page):\n self.headers = {\n "User-Agent": UserAgent().chrome,\n }\n self.page = page\n self.base_url = "https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start="\n self.video_list = [] # 新增了video_list为全局变量,用来保存视频名称和视频资源url
1.获取真正的视频资源url代码
def parse_ajax(self, ajax_url, init_cid, video_name):\n ajax_res = requests.get(ajax_url, headers=ajax_header)\n fake_video_url = json.loads(ajax_res.text)["videoInfo"]["videos"]["srcUrl"]\n fake_cid = fake_video_url.split("/")[-1].split("-")[0]\n real_cid = "cont-" + init_cid\n real_video_url = fake_video_url.replace(fake_cid, real_cid)\n # video_dict每次请求都会刷新,最终保存到video_list中\n video_dict = {\n "video_url": real_video_url,\n "video_name": video_name\n }\n self.video_list.append(video_dict)
2. 多线程下载视频资源代码
def download_video(self, video_dict): # 此处传递的是一个字典而非video_list这个列表\n video_res = requests.get(video_dict["video_url"], headers=ajax_header)\n video_path = os.path.join(os.getcwd(), "线程池视频下载")\n if not os.path.exists(video_path):\n os.mkdir(video_path)\n with open(f"{video_path}/{video_dict['video_name']}.mp4", "wb") as video_file:\n video_file.write(video_res.content)\n print(f"{video_dict['video_name']}下载完毕")
3. 启动多线程
if __name__ == '__main__':\n pear_video = PearVideo(2)\n pear_video.run()\n pool = ThreadPoolExecutor(4) # 此处的4表示每次只开启4个线程下载视频资源\n # 此处的map方法和Python自带的map(x,y)含义类似,即将可迭代对象y中的每一个元素执行函数x。\n pool.map(pear_video.download_video, pear_video.video_list)
使用协程下载视频
使用协程下载视频资源中最为重要的三个库为asyncio(创建协程对象),aiohttp(发送异步请求),aiofiles(异步保存文件)。
重点:
1)在函数前加上async关键字,函数即被创建为一个协程对象;2)协程对象中所有需要io耗时操作的部分均需使用await将任务挂起;3)协程对象不能直接运行,需要创建一个事件循环(类似无限循环),然后再运行协程对象。
注意:
1)不能使用requests发送异步请求,需要使用aiohttp或httpx;2)不能直接使用open()保存文件,需要使用aiofiles进行异步操作保存。
主要代码如下
# 将视频资源url和视频名称作为全局变量\n self.video_urls = []\n self.video_names = []
1.定义协程对象下载视频
# 下载视频信息\n async def download_videos(self, session, video_url, video_name, video_path):\n # 发送异步请求\n async with session.get(video_url, headers=ajax_header) as res:\n # 获取异步响应,前面必须加上await,表示挂起\n content = await res.content.read()\n # 异步保存视频资源到电脑本地\n async with aiofiles.open(f"{video_path}/{video_name}.mp4", "wb") as file:\n print(video_name + " 下载完毕…")\n await file.write(content)
2. 创建main()运行协程对象
async def main(self):\n video_path = os.path.join(os.getcwd(), "协程视频下载")\n if not os.path.exists(video_path):\n os.mkdir(video_path)\n async with aiohttp.ClientSession() as session: # 创建session,保持会话\n # 创建协程任务,每一个视频资源url即为一个协程任务\n tasks = [\n asyncio.create_task(self.download_videos(session, url, name, video_path))\n for url, name in zip(self.video_urls, self.video_names)\n ]\n # 等待所有的任务完成\n done, pending = await asyncio.wait(tasks)
3. 调用整个类并运行协程对象
if __name__ == '__main__':\n pear_video = PearVideo(3)\n pear_video.run()\n loop = asyncio.get_event_loop() # 创建事件循环\n loop.run_until_complete(pear_video.main()) # 运行协程对象
在保存视频的时候,如果视频名称中含有"\\", "/", "*", "?", "<", "", "|"在内的非法字符,视频将无法保存,程序将报错,可用如下代码过滤视频名称:
def rename(self, name):\n stop = ["\\\\", "/", "*", "?", "<", "", "|"]\n new_name = ""\n for i in name:\n if i not in stop:\n new_name += i\n return new_name
在使用多线程和协程下载视频资源这部分代码中都是使用单线程和线程池/协程结合,均是在获取到视频名称和视频资源url后再针对视频资源发送请求,获取响应,此部分代码仍有待优化,如使用生产者/消费者模式一边生产视频资源url,一边根据url下载视频;而协程部分也可将其它需要发送网络请求的部分修改为协程模式,从而提高下载速度。
总结
下载梨视频的视频资源难点在于破解真正的视频资源url, 先后需要对视频起始页(主页)发送请求,再对视频详情页发送请求,然后再对视频详情页抓包获取真正的视频资源url,最后再针对视频资源url发送请求,下载视频资源。其中线程池和协程的部分仍有待优化,以便更好地提高下载效率!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。