博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
微博(APP)榜单爬虫及数据可视化
阅读量:7099 次
发布时间:2019-06-28

本文共 2358 字,大约阅读时间需要 7 分钟。

img_093660b0ac25e4cc32655308e9b5fff9.png

前言

今天继续APP爬虫,今天爬取的是微博榜单(24小时榜)的数据,采集的字段有:

  • 用户id
  • 用户地区
  • 用户性别
  • 用户粉丝
  • 微博内容
  • 发布时间
  • 转发、评论和点赞量

该文分以下内容:

  • 爬虫代码
  • 用户分析
  • 微博分析
img_fdb60917401280e7c26bbafb46e51f07.jpe
img_a41f95e3470d427c8fc290b9165d8cb3.png

爬虫代码

import requestsimport jsonimport reimport timeimport csvheaders = {    'Host': 'api.weibo.cn',    'Connection': 'keep-alive',    'User-Agent': 'Weibo/29278 (iPhone; iOS 11.4.1; Scale/2.00)'}f = open('1.csv','w+',encoding='utf-8',newline='')writer = csv.writer(f)writer.writerow(['user_id','user_location','user_gender','user_follower','text','created_time','reposts_count','comments_count','attitudes_count'])def get_info(url):    res = requests.get(url,headers=headers)    print(url)    datas = re.findall('"mblog":(.*?),"weibo_position"',res.text,re.S)    for data in datas:        json_data = json.loads(data+'}')        user_id = json_data['user']['name']        user_location = json_data['user']['location']        user_gender = json_data['user']['gender']        user_follower = json_data['user']['followers_count']        text = json_data['text']        created_time = json_data['created_at']        reposts_count = json_data['reposts_count']        comments_count = json_data['comments_count']        attitudes_count = json_data['attitudes_count']        print(user_id,user_location,user_gender,user_follower,text,created_time,reposts_count,comments_count,attitudes_count)        writer.writerow([user_id,user_location,user_gender,user_follower,text,created_time,reposts_count,comments_count,attitudes_count])    time.sleep(5)if __name__ == '__main__':    urls = ['https://api.weibo.cn/2/cardlist?gsid=_2A252dh7LDeRxGeNM41oV-S_MzDSIHXVTIhUDrDV6PUJbkdANLVTwkWpNSf8_0j6hqTyDS0clYi-pzwDc2Kd8oj_d&wm=3333_2001&i=b9f7194&b=0&from=1088193010&c=iphone&networktype=wifi&v_p=63&skin=default&v_f=1&s=ef8eeeee&lang=zh_CN&sflag=1&ua=iPhone8,1__weibo__8.8.1__iphone__os11.4.1&ft=11&aid=01AuxGxLabPA7Vzz8ZXBUpkeJqWbJ1woycR3lFBdLhoxgQC1I.&moduleID=pagecard&scenes=0&uicode=10000327&luicode=10000010&count=20&extparam=discover&containerid=102803_ctg1_8999_-_ctg1_8999_home&fid=102803_ctg1_8999_-_ctg1_8999_home&lfid=231091&page={}'.format(str(i)) for i in range(1,16)]    for url in urls:        get_info(url)

用户分析

首先对部分用户id进行可视化,字体大一点的是上榜2次的(这次统计中最多上榜的是2次)。

img_1fcf8f8c8d6157446ad1671a0fdb9038.png

接着对地区进行数据处理,进行统计。可以看出,位于北京的用户是最多的(大V都在北京)。

df['location'] = df['user_location'].str.split(' ').str[0]
img_355aded7f6fe30cd0faa6e10108dd1cc.png

接下来看下用户的性别比例:男性用户占多。

img_ff30c798c66f0ef70d337a9c55a0db8e.png

最后再看看上榜大V粉丝前十:

img_acaf5dae0467852e8dc6c758259c06e2.png

微博分析

首先,对时间数据进行处理,取出小时时间段。

img_863b16a9b6401d9718d26f5a9bd9d12a.png

接着,我们看看微博点赞前十的用户。

img_eee894092a6920eae2d2b9440dab229c.png

最后,绘制微博文章词云图。

img_827558bda74dd2986ec0b1c083803c1e.png

转载地址:http://kseql.baihongyu.com/

你可能感兴趣的文章
【转】养成一个SQL好习惯带来一笔大财富
查看>>
BZOJ1087[SCOI2005]互不侵犯——状压DP
查看>>
Scala 学习笔记之集合(8) Try和Future
查看>>
课后笔记--html
查看>>
openresty安装
查看>>
祝贺下,我终于在网上有个家啦~~~
查看>>
8086汇编——课堂笔记整理4
查看>>
按照Right-BICEP要求设计四则运算2程序的单元测试用例
查看>>
SpringMVC-Handler-Return Values返回值
查看>>
KVM网络桥接模式解说
查看>>
WebApp开发之--"rem"单位(转)
查看>>
TOPCODER->Practice Room->SRAM 144 DIV 1 (550)
查看>>
mysql 远程连接速度慢的解决方案
查看>>
android软键盘挡住输入框问题解决方法
查看>>
Angular企业级开发(10)-Smart Table插件开发
查看>>
POJ-3295 Tautology 构造法
查看>>
HDU-3573 Buy Sticks
查看>>
验证码的封装
查看>>
javascript与服务器1
查看>>
自制面试宝典
查看>>