鱼C论坛

 找回密码
 立即注册
查看: 606|回复: 5

爬虫爬去猫眼电影top100内容问题

[复制链接]
发表于 2018-7-19 22:36:40 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 sum_12 于 2018-7-20 09:08 编辑

请问大神们 ,我程序没有错,加了headers,可是我还是无法接受到爬取的内容怎么回事?(查看headers时有警告)
JJJ])N(CG[4(@U[H}RJFNO2.png
EN54E%{$(3(5L]H3U9@(PGV.png
~7{ZTE5%PD}EBCNVO}N(2_M.png
[S34`~[~Q~)@]JF%J$YM)%P.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2018-7-19 22:50:30 | 显示全部楼层
代码,具体错误。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2018-7-20 09:09:12 | 显示全部楼层
ba21 发表于 2018-7-19 22:50
代码,具体错误。

已经上传图片了,麻烦了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-7-20 11:25:11 | 显示全部楼层
sum_12 发表于 2018-7-20 09:09
已经上传图片了,麻烦了

上代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-7-20 16:19:11 | 显示全部楼层
个人觉得两个地方可以小修改:
1、 def write_to_file(),这个函数里你使用了 with as 语句  file.close()可以直接不写       (这个应该不是问题...)
2、因为现在有些网站都有反爬虫措施,你可以加一个延时,如果访问速度过快可能导致被封IP(不知道是不是这个原因)   在一开始import time 库    然后在最后if 中 加入time.sleep(1)    (但我觉得这个应该也不是主要问题)

然后看看获取headers的时候,图片里红圈里有没有选中,选中的话爬不到(我当时遇到的情况) QQ截图20180720161502.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2018-7-22 16:50:28 | 显示全部楼层
千斤顶先生 发表于 2018-7-20 16:19
个人觉得两个地方可以小修改:
1、 def write_to_file(),这个函数里你使用了 with as 语句  file.close() ...

谢谢啦,我去试一下。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-4-20 22:32

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表