有什么问题欢迎大家加QQ群:565712652进行讨论!

网易云音乐评论爬虫(二):爬取全部热门歌曲及其对应的id号

Python爬虫 Jason zhou 818℃ 3评论

今天我给大家介绍一下用Python爬取网易云音乐全部歌手的热门歌曲.由于歌手个人主页的网页源代码中还嵌入了一个子网页(框架源代码里面包含了我们需要的信息),因此我们不能使用requests库来爬取,而使用selenium,接下来,让我详细讲解整个爬取过程.

一,构造歌手个人主页的URL

前段时间我们获取了网易云音乐全部歌手的id号,今天我们就利用全部歌手的id号来构造歌手个人主页的URL,从而实现用爬取全部歌手的热门歌曲及其id号的目的.以歌手 薛之谦的个人主页 为例,来看一下他的主页的URL为:

https://music.163.com/#/artist?id=5781

因此只需要根据歌手对应的id就可以构造出歌手的个人主页,在歌手的个人主页我们能看到热门作品这一栏.网易云音乐全部歌手id号点击获取(csv文件)

二,分析网页源代码

现在我们就要用Python爬虫去爬取这些内容.如果你用requests库去爬取的话,返回的网页源代码中根本就没有这些信息.这时我们打开薛之谦的个人主页鼠标右键分别查看网页的源代码和查看框架的源代码.你会发现网页源代码和用requests库请求返回的源代码一摸一样(里面没有我们要爬取的信息),而在框架源代码中有我们要爬取的热门作品的信息,因此我们只需要将框架源代码爬取下来,然后再解析即可得到我们需要的歌手的热门作品的信息.

三,网页源代码和框架源代码的区别

网页源代码是指父级网页的源代码.另外网页中还有一种节点叫iframe,也就是子Frame,相当于网页的子页面,它的结构和外部网页的结构完全一致,框架源代码就是这个子网页的源代码.

四,获取框架源代码

这里我们使用selenium库来爬取,在selenium打开页面后,默认是在父级frame里面进行操作,而此时页面中还有子frame,它是不能获取到子frame里面的节点的,因此这时我们需要使用swith_to.frame()方法来切换到子frame中去,这时请求得到的代码就从网页源代码切换到了框架源代码,于是我们便能够提取我们需要的热门作品的信息了.通过歌手的个人主页的URL来爬取其框架源代码,具体爬取框架源代码的函数:

def get_html_src(url):
    # 可以任意选择浏览器,前提是要配置好相关环境,更多请参考selenium官方文档
    driver = webdriver.Chrome()
    driver.get(url)
    # 切换成frame
    driver.switch_to_frame("g_iframe")
    # 休眠3秒,等待加载完成!
    time.sleep(3)
    page_src = driver.page_source
    driver.close()
    return page_src

返回结果为歌手个人主页的框架源代码,里面包含了我们需要的信息.

五,解析源代码

我们使用bs4库进行解析,需要的信息包含在HTML5的下面代码片段中:

<span class="txt"><a href="/song?id=(\d*)"><b title="(.*?)">

因此可定义下面函数对其进行解析:

def parse_html_page(html):
    
    # pattern = '<span class="txt"><a href="/song?id=(\d*)"><b title="(.*?)">'
    # 这里是使用lxml解析器进行解析,lxml速度快,文档容错能力强,也能使用html5lib
    soup = BeautifulSoup(html, 'lxml')
    items = soup.find_all('span', 'txt')
    return items

 六,写入csv文件

def write_to_csv(items, artist_name):

    with open("music163_songs.csv", "a") as csvfile:
        writer = csv.writer(csvfile)
        writer.writerow(["歌手名字", artist_name])

        for item in items:
            writer.writerow([item.a['href'].replace('/song?id=', ''), item.b['title']])

            print('歌曲id:', item.a['href'].replace('/song?id=', ''))
            song_name = item.b['title']
            print('歌曲名字:', song_name)

    csvfile.close()

 七,读取csv文件,构造全部歌手的个人主页

# 获取歌手id和歌手姓名
def read_csv():

    with open("music163_artists.csv", "r", encoding="utf-8") as csvfile:

        reader = csv.reader(csvfile)
        for row in reader:
            artist_id, artist_name = row
            if str(artist_id) is "artist_id":
                continue
            else:
                yield artist_id, artist_name
    # 当程序的控制流程离开with语句块后, 文件将自动关闭

 八,程序主函数

# 主函数
def main():
    for readcsv in read_csv():
        artist_id, artist_name = readcsv
        url = "https://music.163.com/#/artist?id=" + str(artist_id)
        print("正在获取{}的热门歌曲...".format(artist_name))
        html = get_html_src(url)
        items = parse_html_page(html)
        print("{}的热门歌曲获取完成!".format(artist_name))
        print("开始将{}的热门歌曲写入文件".format(artist_name))
        write_to_csv(items, artist_name)
        print("{}的热门歌曲写入到本地成功!".format(artist_name))

 九,总结

获取全部代码请上我的github,爬取过程中有任何问题欢迎留言!

转载请注明:志颖博客 » 网易云音乐评论爬虫(二):爬取全部热门歌曲及其对应的id号

喜欢 (24)or分享 (0)
发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
(3)个小伙伴在吐槽
  1. 大佬六六六
    234567892018-09-11 08:53 回复
  2. 我爬取之后存到CSV中的结果只有最后一个人的数据,如爬10个人的热门歌曲,最后CSV中只有第10个人的歌曲?
    moqimomo2018-10-12 15:01 回复
    • 你把文件打开模式改为'a'(追加写模式)试试!
      Jason zhou2018-10-12 18:46 回复