Tangwx

Tangwx

博客网站

python Selenium爬蟲爬取京東搜尋頁資訊

python Selenium 爬蟲爬取京東搜尋頁資訊#

1. 什麼是 Selenium 框架?#

1.Selenium 是一個用於 Web 應用程式測試的工具。直接運行在瀏覽器中,就像真正的使用者在操作一樣

2. 支持的瀏覽器包括 IE、火狐、Safari、Google Chrome、Opera 等,覆蓋平台多

3. 自動化測試,js 動態爬蟲

2. 環境配置#

這裡我使用的是火狐瀏覽器驅動 geckodriver,如果你使用的是谷歌瀏覽器,你需要使用 chromedriver.

下載地址:geckodriver

注意這裡的瀏覽器驅動版本要與瀏覽器版本對應,建議驅動下載最新版本,瀏覽器更新到最新版本

這裡我下載的是geckodriver-v0.29.1-win64.zip1.44 MB

解壓後可以得到geckodriver.exe文件,將這個可執行文件添加到你的 python 安裝目錄下的Scripts文件夾中即可。如果你使用的是 anaconda,則需添加到Anaconda3中的Scripts文件夾中

在 cmd 裡輸入geckodriver 你可以得到

(crawler) C:\Users\HP>geckodriver 1630680105974 geckodriver INFO Listening on 127.0.0.1:4444

出現這樣的形式則表明安裝成功.

下載Selenium庫,使用 python 最常用命令pip install Selenium安裝 Selenium 框架

3. 程式編寫#

3.1 導入相關庫#

# 導入庫
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
import time

3.2 模擬瀏覽器操作#

# 模擬瀏覽器訪問京東頁面,解決反爬蟲
def spider(url, keyword):
    # 初始化瀏覽器
    driver = webdriver.Firefox()
    # 訪問網址
    driver.get(url)
    # time.sleep(2) # 20
    try:
        driver.implicitly_wait(10)  # 隱式等待,確保節點完全加載出來,感受不到

        # 搜索
        # 定位搜索框
        input_tag = driver.find_element_by_id('key')
        # 模擬鍵盤輸入關鍵字
        input_tag.send_keys(keyword)
        # 模擬按下回車鍵搜索
        input_tag.send_keys(Keys.ENTER)
        get_goods(driver)
    finally:
        pass
        # time.sleep(10)
        # # 關閉瀏覽器  總會執行
        # driver.close()

3.3 抓取需要的數據#

# 定位商品數據抓取
def get_goods(driver):
    try:
        # 定位到每一件商品
        goods = driver.find_elements_by_class_name('gl-item')
        # 商品名字 href 價格 評論
        for good in goods:
            p_name = good.find_element_by_css_selector('.p-name em').text.replace('\n', '')
            detail_url = good.find_element_by_tag_name('a').get_attribute('href')
            price = good.find_element_by_css_selector('.p-price i').text
            p_commit = good.find_element_by_css_selector('.p-commit a').text
            msg = """
            商品:%s
            鏈接:%s
            價格:%s
            評論:%s
            """ % (p_name, detail_url, price, p_commit)
            print(msg)
            # with open("")
    # 大量的數據
        # 定位到下一頁
        button = driver.find_element_by_partial_link_text('下一頁')
        # 模擬點擊操作
        button.click()
        time.sleep(2)
        get_goods(driver)

    except Exception as e:
        print(e)

3.4 程式入口#

if __name__ == '__main__':
    spider('https://www.jd.com/', keyword='jk')

這裡輸入網址,keyword 是搜索關鍵字

4. 完整程式碼#

# 環境配置
"""
瀏覽器驅動 geckodriver
1630635571195   geckodriver     INFO    Listening on 127.0.0.1:4444
"""

# 導入庫
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
import time


# 模擬瀏覽器訪問京東頁面,解決反爬蟲
def spider(url, keyword):
    # 初始化瀏覽器
    driver = webdriver.Firefox()
    # 訪問網址
    driver.get(url)
    # time.sleep(2) # 20
    try:
        driver.implicitly_wait(10)  # 隱式等待,確保節點完全加載出來,感受不到

        # 搜索
        # 定位搜索框
        input_tag = driver.find_element_by_id('key')
        # 模擬鍵盤輸入關鍵字
        input_tag.send_keys(keyword)
        # 模擬按下回車鍵搜索
        input_tag.send_keys(Keys.ENTER)
        get_goods(driver)
    finally:
        pass
        # time.sleep(10)
        # # 關閉瀏覽器  總會執行
        # driver.close()


# 定位商品數據抓取
def get_goods(driver):
    try:
        # 定位到每一件商品
        goods = driver.find_elements_by_class_name('gl-item')
        # 商品名字 href 價格 評論
        for good in goods:
            p_name = good.find_element_by_css_selector('.p-name em').text.replace('\n', '')
            detail_url = good.find_element_by_tag_name('a').get_attribute('href')
            price = good.find_element_by_css_selector('.p-price i').text
            p_commit = good.find_element_by_css_selector('.p-commit a').text
            msg = """
            商品:%s
            鏈接:%s
            價格:%s
            評論:%s
            """ % (p_name, detail_url, price, p_commit)
            print(msg)
            # with open("")
    # 大量的數據
        # 定位到下一頁
        button = driver.find_element_by_partial_link_text('下一頁')
        # 模擬點擊操作
        button.click()
        time.sleep(2)
        get_goods(driver)

    except Exception as e:
        print(e)


if __name__ == '__main__':
    spider('https://www.jd.com/', keyword='jk')

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。