用爬虫统计小组打卡
扇贝一直有一个打卡的机制,学习完当天的任务之后可以完成打卡,这个打卡的记录会同步到公司的学员日常学习记录中,这样他们就可以日常提醒和督促未打卡的学员们,相信不仅是扇贝现在有很多学习方面的app都有这种机制。每天学习完一关我就会打卡到朋友圈,日复一日,周而复始,学习完爬虫课程之后我就想,我自己如何才能得知跟我一起学习的组员们的打卡记录呢?由于之前也没有系统的学习过编程,也算是个编程小白,所以我也不可能一口气就把小组打卡的程序全部写好,所以这是一个循序渐进的过程。在好奇心的驱使之下,我自己写了一个程序,具体操作操作如下,大家有兴趣的可以接着看:
首先,我试图获取我自己的打卡情况。 这里涉及到几个问题:
(1)怎么确定查卡时间?
(2)怎么定义范围?我只想统计一周的数据。
(3)关键点:怎么爬虫?
首先数据定位,用findall找到定位的内容,比如阅读read
read = re.findall("\"read\":.*?}",data)
如果我没有学习read该部分内容,就可以把结果置位0
if read == []:
read = "{num_today\": 0, \"used_time\": 0.0}"
把阅读的数量和阅读的时间提取出来。字符串切割等内容,这些课程里都会详细介绍
read_num = re.findall(r"\d+\.?\d*",str(read))[0]
read_time = re.findall(r"\d+\.?\d*",str(read))[1]
(4)怎么从昨天开始统计数据?今天可能还没打卡。来个if判断一下:
