婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python 如何獲取頁面所有a標簽下href的值

python 如何獲取頁面所有a標簽下href的值

熱門標簽:幫人做地圖標注收費算詐騙嗎 外呼不封號系統(tǒng) 蘇州電銷機器人十大排行榜 遼寧400電話辦理多少錢 溫州旅游地圖標注 悟空智電銷機器人6 荊州云電銷機器人供應商 江蘇房產(chǎn)電銷機器人廠家 電信營業(yè)廳400電話申請

看代碼吧~

# -*- coding:utf-8 -*-
#python 2.7
#http://tieba.baidu.com/p/2460150866
#標簽操作 
 
from bs4 import BeautifulSoup
import urllib.request
import re 
 
#如果是網(wǎng)址,可以用這個辦法來讀取網(wǎng)頁
#html_doc = "http://tieba.baidu.com/p/2460150866"
#req = urllib.request.Request(html_doc)  
#webpage = urllib.request.urlopen(req)  
#html = webpage.read() 
 
html="""
html>head>title>The Dormouse's story/title>/head>
body>
p class="title" name="dromouse">b>The Dormouse's story/b>/p>
p class="story">Once upon a time there were three little sisters; and their names were
a  rel="external nofollow"  rel="external nofollow"  class="sister" id="xiaodeng">!-- Elsie -->/a>,
a  rel="external nofollow"  rel="external nofollow"  class="sister" id="link2">Lacie/a> and
a  rel="external nofollow"  class="sister" id="link3">Tillie/a>;
a  rel="external nofollow"  rel="external nofollow"  class="sister" id="xiaodeng">Lacie/a>
and they lived at the bottom of a well./p>
p class="story">.../p>
"""
soup = BeautifulSoup(html, 'html.parser')   #文檔對象 
 
#查找a標簽,只會查找出一個a標簽
#print(soup.a)#a class="sister"  rel="external nofollow"  rel="external nofollow"  id="xiaodeng">!-- Elsie -->/a>
 
for k in soup.find_all('a'):
    print(k)
    print(k['class'])#查a標簽的class屬性
    print(k['id'])#查a標簽的id值
    print(k['href'])#查a標簽的href值
    print(k.string)#查a標簽的string 
    

如果,標簽a>中含有其他標簽,比如em>../em>,此時要提取a>中的數(shù)據(jù),需要用k.get_text()

soup = BeautifulSoup(html, 'html.parser')   #文檔對象
#查找a標簽,只會查找出一個a標簽
for k in soup.find_all('a'):
    print(k)
    print(k['class'])#查a標簽的class屬性
    print(k['id'])#查a標簽的id值
    print(k['href'])#查a標簽的href值
    print(k.string)#查a標簽的string

如果,標簽a>中含有其他標簽,比如em>../em>,此時要提取a>中的數(shù)據(jù),需要用k.get_text()

通常我們使用下面這種模式也是能夠處理的,下面的方法使用了get()。

 html = urlopen(url)
 soup = BeautifulSoup(html, 'html.parser')
 t1 = soup.find_all('a')
 print t1
 href_list = []
 for t2 in t1:
    t3 = t2.get('href')
    href_list.append(t3)

補充:python爬蟲獲取任意頁面的標簽和屬性(包括獲取a標簽的href屬性)

看代碼吧~

# coding=utf-8 
from bs4 import BeautifulSoup 
import requests 
# 定義一個獲取url頁面下label標簽的attr屬性的函數(shù) 
def getHtml(url, label, attr): 
    response = requests.get(url) 
    response.encoding = 'utf-8' 
    html = response.text 
    soup = BeautifulSoup(html, 'html.parser'); 
    for target in soup.find_all(label):
 
        try: 
            value = target.get(attr)
 
        except: 
            value = ''
 
        if value: 
            print(value)
 
url = 'https://baidu.com/' 
label = 'a' 
attr = 'href' 
getHtml(url, label, attr)

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • python爬蟲之異常捕獲及標簽過濾詳解
  • Python深度學習之圖像標簽標注軟件labelme詳解
  • python中Tkinter實現(xiàn)分頁標簽的示例代碼
  • Python 實現(xiàn)自動完成A4標簽排版打印功能
  • Python氣泡提示與標簽的實現(xiàn)
  • Python 生成VOC格式的標簽實例
  • 基于python3生成標簽云代碼解析
  • python 實現(xiàn)添加標簽&打標簽的操作

標簽:黃山 濟南 景德鎮(zhèn) 三沙 臺灣 喀什 欽州 宿遷

巨人網(wǎng)絡通訊聲明:本文標題《python 如何獲取頁面所有a標簽下href的值》,本文關(guān)鍵詞  python,如何,獲取,頁面,所有,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python 如何獲取頁面所有a標簽下href的值》相關(guān)的同類信息!
  • 本頁收集關(guān)于python 如何獲取頁面所有a標簽下href的值的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 临澧县| 上犹县| 涪陵区| 夹江县| 巴楚县| 驻马店市| 嘉峪关市| 昭通市| 莱西市| 广州市| 平顺县| 鸡西市| 渭源县| 榕江县| 怀安县| 涞源县| 太仆寺旗| 仪陇县| 额尔古纳市| 邵阳市| 阿勒泰市| 自贡市| 资阳市| 治县。| 丽江市| 顺昌县| 大余县| 哈尔滨市| 科技| 阿坝| 胶州市| 林西县| 宁乡县| 浮梁县| 沙坪坝区| 德昌县| 泗阳县| 宝应县| 灯塔市| 镇远县| 孟连|