十年網(wǎng)站開發(fā)經(jīng)驗 + 多家企業(yè)客戶 + 靠譜的建站團隊
量身定制 + 運營維護+專業(yè)推廣+無憂售后,網(wǎng)站問題一站解決
了解Python爬取如何分析去哪兒網(wǎng)部分城市門票售賣情況?這個問題可能是我們?nèi)粘W(xué)習(xí)或工作經(jīng)常見到的。希望通過這個問題能讓你收獲頗深。下面是小編給大家?guī)淼膮⒖純?nèi)容,讓我們一起來看看吧!
我們注重客戶提出的每個要求,我們充分考慮每一個細節(jié),我們積極的做好成都網(wǎng)站制作、成都做網(wǎng)站、外貿(mào)營銷網(wǎng)站建設(shè)服務(wù),我們努力開拓更好的視野,通過不懈的努力,創(chuàng)新互聯(lián)建站贏得了業(yè)內(nèi)的良好聲譽,這一切,也不斷的激勵著我們更好的服務(wù)客戶。 主要業(yè)務(wù):網(wǎng)站建設(shè),網(wǎng)站制作,網(wǎng)站設(shè)計,微信小程序開發(fā),網(wǎng)站開發(fā),技術(shù)開發(fā)實力,DIV+CSS,PHP及ASP,ASP.Net,SQL數(shù)據(jù)庫的技術(shù)開發(fā)工程師。
通過分析去哪兒網(wǎng)部分城市門票售賣情況,簡單的分析一下哪些景點比較受歡迎。
用到的Python模塊
BeautifulSoup、requests、pymongo、pylab
方法
通過請求https://piao.qunar.com/ticket/list.htm?keyword=北京 ,獲取北京地區(qū)熱門景區(qū)信息,再通過BeautifulSoup去分析提取出我們需要的信息。
這里為了偷懶只爬取了前4頁的景點信息,每頁有15個景點。因為去哪兒并沒有什么反爬措施,所以直接請求就可以了。
這里只是隨機選擇了13個熱門城市:北京, 上海, 成都, 三亞, 廣州, 重慶, 深圳, 西安, 杭州, 廈門, 武漢, 大連, 蘇州。
并將爬取的數(shù)據(jù)存到了MongoDB數(shù)據(jù)庫 。
爬蟲部分完整代碼如下
import requests
from bs4 import BeautifulSoup
from pymongo import MongoClient
class QuNaEr():
def __init__(self, keyword, page=1):
self.keyword = keyword
self.page = page
def qne_spider(self):
url = 'https://piao.qunar.com/ticket/list.htm?keyword=%s®ion=&from=mpl_search_suggest&page=%s' %
(self.keyword, self.page)
response = requests.get(url)
response.encoding = 'utf-8'
text = response.text
bs_obj = BeautifulSoup(text, 'html.parser')
arr = bs_obj.find('div', {'class': 'result_list'}).contents
for i in arr:
info = i.attrs
# 景區(qū)名稱
name = info.get('data-sight-name')
# 地址
address = info.get('data-address')
# 近期售票數(shù)
count = info.get('data-sale-count')
# 經(jīng)緯度
point = info.get('data-point')
# 起始價格
price = i.find('span', {'class': 'sight_item_price'})
price = price.find_all('em')
price = price[0].text
conn = MongoClient('localhost', port=27017)
db = conn.QuNaEr # 庫
table = db.qunaer_51 # 表
table.insert_one({
'name' : name,
'address' : address,
'count' : int(count),
'point' : point,
'price' : float(price),
'city' : self.keyword
})
if __name__ == '__main__':
citys = ['北京', '上海', '成都', '三亞', '廣州', '重慶', '深圳', '西安', '杭州', '廈門', '武漢', '大連', '蘇州']
for i in citys:
for page in range(1, 5):
qne = QuNaEr(i, page=page)
qne.qne_spider()有了數(shù)據(jù),我們就可以分析出自己想要的東西了
最受歡迎的15個景區(qū)

由圖可以看出,在選擇的13個城市中,最熱門的景區(qū)為上海的迪士尼樂園
導(dǎo)入數(shù)據(jù)庫,代碼如下
from pymongo import MongoClient
# 設(shè)置字體,不然無法顯示中文
from pylab import *
mpl.rcParams['font.sans-serif'] = ['SimHei']
conn = MongoClient('localhost', port=27017)
db = conn.QuNaEr # 庫
table = db.qunaer_51 # 表
result = table.find().sort([('count', -1)]).limit(15)
# x,y軸數(shù)據(jù)
x_arr = [] # 景區(qū)名稱
y_arr = [] # 銷量
for i in result:
x_arr.append(i['name'])
y_arr.append(i['count'])
"""
去哪兒月銷量排行榜
"""
plt.bar(x_arr, y_arr, color='rgb') # 指定color,不然所有的柱體都會是一個顏色
plt.gcf().autofmt_xdate() # 旋轉(zhuǎn)x軸,避免重疊
plt.xlabel(u'景點名稱') # x軸描述信息
plt.ylabel(u'月銷量') # y軸描述信息
plt.title(u'拉鉤景點月銷量統(tǒng)計表') # 指定圖表描述信息
plt.ylim(0, 4000) # 指定Y軸的高度
plt.savefig('去哪兒月銷售量排行榜') # 保存為圖片
plt.show()感謝各位的閱讀!看完上述內(nèi)容,你們對Python爬取如何分析去哪兒網(wǎng)部分城市門票售賣情況大概了解了嗎?希望文章內(nèi)容對大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。