这篇文章主要介绍了怎么用Python写个听小说的爬虫的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇怎么用Python写个听小说的爬虫文章都会有所收获,下面我们一起来看看吧。

书名和章节列表

随机点开一本书,这个页面可以使用 BeautifulSoup 获取书名和所有单个章节音频的列表。复制浏览器的地址,如:https://www.tingchina.com/yousheng/disp_31086.htm。

frombs4importBeautifulSoupimportrequestsimportreimportrandomimportosheaders={'user-agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/91.0.4472.114Safari/537.36'}defget_detail_urls(url):url_list=[]response=requests.get(url,headers=headers)response.encoding='gbk'soup=BeautifulSoup(response.text,'lxml')name=soup.select('.red12')[0].strong.textifnotos.path.exists(name):os.makedirs(name)div_list=soup.select('div.lista')foritemindiv_list:url_list.append({'name':item.string,'url':'https://www.tingchina.com/yousheng/{}'.format(item['href'])})returnname,url_list音频地址

打开单个章节的链接,在 Elements 面板用章节名称作为搜索词,在底部发现了一个 script,这一部分就是声源的地址。

在 Network 面板可以看到,声源的 url 域名和章节列表的域名是不一样的。在获取下载链接的时候需要注意这一点。

defget_mp3_path(url):response=requests.get(url,headers=headers)response.encoding='gbk'soup=BeautifulSoup(response.text,'lxml')script_text=soup.select('script')[-1].stringfileUrl_search=re.search('fileUrl="(.*?)";',script_text,re.S)iffileUrl_search:return'https://t3344.tingchina.com'+fileUrl_search.group(1)下载

惊喜总是突如其来,把这个 https://t3344.tingchina.com/xxxx.mp3 放入浏览器中运行居然是 404。

肯定是少了关键性的参数,回到上面 Network 仔细观察 mp3 的 url,发现在 url 后面带了一个 key 的关键字。如下图,这个 key 是来自于https://img.tingchina.com/play/h6_jsonp.asp?0.5078556568562795的返回值,可以使用正则表达式将 key 取出来。

defget_key(url):url='https://img.tingchina.com/play/h6_jsonp.asp?{}'.format(str(random.random()))headers['referer']=urlresponse=requests.get(url,headers=headers)matched=re.search('(key=.*?)";',response.text,re.S)ifmatched:temp=matched.group(1)returntemp[len(temp)-42:]

最后的最后在__main__中将以上的代码串联起来。

if__name__=="__main__":url=input("请输入浏览器书页的地址:")dir,url_list=get_detail_urls()foriteminurl_list:audio_url=get_mp3_path(item['url'])key=get_key(item['url'])audio_url=audio_url+'?key='+keyheaders['referer']=item['url']r=requests.get(audio_url,headers=headers,stream=True)withopen(os.path.join(dir,item['name']),'ab')asf:f.write(r.content)f.flush()完整代码

frombs4importBeautifulSoupimportrequestsimportreimportrandomimportosheaders={'user-agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/91.0.4472.114Safari/537.36'}defget_detail_urls(url):url_list=[]response=requests.get(url,headers=headers)response.encoding='gbk'soup=BeautifulSoup(response.text,'lxml')name=soup.select('.red12')[0].strong.textifnotos.path.exists(name):os.makedirs(name)div_list=soup.select('div.lista')foritemindiv_list:url_list.append({'name':item.string,'url':'https://www.tingchina.com/yousheng/{}'.format(item['href'])})returnname,url_listdefget_mp3_path(url):response=requests.get(url,headers=headers)response.encoding='gbk'soup=BeautifulSoup(response.text,'lxml')script_text=soup.select('script')[-1].stringfileUrl_search=re.search('fileUrl="(.*?)";',script_text,re.S)iffileUrl_search:return'https://t3344.tingchina.com'+fileUrl_search.group(1)defget_key(url):url='https://img.tingchina.com/play/h6_jsonp.asp?{}'.format(str(random.random()))headers['referer']=urlresponse=requests.get(url,headers=headers)matched=re.search('(key=.*?)";',response.text,re.S)ifmatched:temp=matched.group(1)returntemp[len(temp)-42:]if__name__=="__main__":url=input("请输入浏览器书页的地址:")dir,url_list=get_detail_urls()foriteminurl_list:audio_url=get_mp3_path(item['url'])key=get_key(item['url'])audio_url=audio_url+'?key='+keyheaders['referer']=item['url']r=requests.get(audio_url,headers=headers,stream=True)withopen(os.path.join(dir,item['name']),'ab')asf:f.write(r.content)f.flush()

关于“怎么用Python写个听小说的爬虫”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“怎么用Python写个听小说的爬虫”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注亿速云行业资讯频道。