解析: BeautifulSoup (bs4)

发布时间 2023-04-12 21:42:42作者: yub4by



    
    <title>Title</title>


    <div>
        <ul>
            <li id="l1">张三</li>
            <li id="l2">李四</li>
            <li>王五</li>
            <a href="" id="" class="a1" rel="noopener">尚硅谷</a>
            <span>嘿嘿嘿</span>
        </ul>
    </div>
    <a href="" title="a2" rel="noopener">百度</a>
    <div id="d1">
        <span>哈哈哈</span>
    </div>
    <p id="p1" class="p1">呵呵呵</p>


"""                                                           
                                       .-''-.               
.--.                    _..._        .' .-.  )              
|__|                  .'     '.     / .'  / /               
.--..-,.--.          .   .-.   .   (_/   / /                
|  ||  .-. |         |  '   '  |        / /                 
|  || |  | | _    _  |  |   |  |       / /         _    _   
|  || |  | || '  / | |  |   |  |      . '         | '  / |  
|  || |  '-.' | .' | |  |   |  |     / /    _.-').' | .' |  
|__|| |    /  | /  | |  |   |  |   .' '  _.'.-'' /  | /  |  
    | |   |   `'.  | |  |   |  |  /  /.-'_.'    |   `'.  |  
    |_|   '   .'|  '/|  |   |  | /    _.'       '   .'|  '/ 
           `-'  `--' '--'   '--'( _.-'           `-'  `--'  
Created on 2023/4/12 20:43.
@Author: haifei
"""
import time
from bs4 import BeautifulSoup as bs


'''
BeautifulSoup,和lxml一样,是一个html的解析器,主要功能也是解析和提取数据

缺点:效率没有lxml的效率高
优点:接口设计人性化,使用方便

创建对象的两种方式:
    1、服务器响应的文件生成对象
        soup = BeautifulSoup(response.read().decode(), 'lxml')
    2、本地文件生成对象
        soup = BeautifulSoup(open('1.html'), 'lxml')

通过解析本地文件 学习bs4的基础语法
'''


# 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码
soup = bs(open('解析_5_bs4的基本使用.html', encoding='utf-8'), 'lxml')
# print(soup)


# 根据标签名查找节点(找到的是第一个符合条件的数据)
print(soup.a)  # <a class="a1" href="" id="" rel="noopener">尚硅谷</a>
# 获取标签的属性和属性值
print(soup.a.attrs)  # {'href': '', 'id': '', 'class': ['a1']}


# bs4的一些函数
# (1)find  返回的是第一个符合条件的数据
print(soup.find('a'))  # <a class="a1" href="" id="" rel="noopener">尚硅谷</a>
# 根据title的值来找到对应的标签对象
print(soup.find('a', title="a2"))  # <a href="" title="a2" rel="noopener">百度</a>
# 根据class的值来找到对应的标签对象  注意class后天需要+下划线
print(soup.find('a', class_="a1"))  # <a class="a1" href="" id="" rel="noopener">尚硅谷</a>


# (2)find_all  返回一个包含所有的a标签的列表
print(soup.find_all('a'))  # [<a class="a1" href="" id="" rel="noopener">尚硅谷</a>, <a href="" title="a2" rel="noopener">百度</a>]
# 如果想获取多个标签的数据,需要用一个列表将这些标签包裹起来作为find_all的参数
print(soup.find_all(['a', 'span']))  # [<a class="a1" href="" id="" rel="noopener">尚硅谷</a>, <span>嘿嘿嘿</span>, <a href="" title="a2" rel="noopener">百度</a>, <span>哈哈哈</span>]
# limit的作用是查找前几个数据
print(soup.find_all('li', limit=2))  # [<li id="l1">张三</li>, <li id="l2">李四</li>]


# (3)select(推荐)
# select  返回一个包含多个数据的列表
print(soup.select('a'))  # [<a class="a1" href="" id="" rel="noopener">尚硅谷</a>, <a href="" title="a2" rel="noopener">百度</a>]
# 可以通过.代表class(类似前端的类选择器)
print(soup.select('.a1'))  # [<a class="a1" href="" id="" rel="noopener">尚硅谷</a>]
# 可以通过#代表id
print(soup.select('#l1'))  # [<li id="l1">张三</li>]


# 属性选择器(通过属性来寻找对应的标签)
# 查找到li标签中有id的标签
print(soup.select('li[id]'))  # [<li id="l1">张三</li>, <li id="l2">李四</li>]
# 查找到li标签中id为l2的标签
print(soup.select('li[id="l2"]'))  # [<li id="l2">李四</li>]
# 找到a标签和li标签的所有的对象
print(soup.select('a,li'))  # [<li id="l1">张三</li>, <li id="l2">李四</li>, <li>王五</li>, <a class="a1" href="" id="" rel="noopener">尚硅谷</a>, <a href="" title="a2" rel="noopener">百度</a>]


# 层级选择器
# 1、后代选择器
# 找到的是div下面的li,通过空格,可以跨层级
print(soup.select('div li'))  # [<li id="l1">张三</li>, <li id="l2">李四</li>, <li>王五</li>]
print(soup.select('div ul li'))  # [<li id="l1">张三</li>, <li id="l2">李四</li>, <li>王五</li>]
# 2、子代选择器
# 某标签的第一级子标签,通过'&gt;',逐级
print(soup.select('div&gt;li'))  # []
print(soup.select('div&gt;ul&gt;li'))  # [<li id="l1">张三</li>, <li id="l2">李四</li>, <li>王五</li>]


# 节点信息
# 1、获取节点内容
obj = soup.select('#d1')[0]
print(obj.string)  # None
print(obj.get_text())  # 哈哈哈
'''
如果标签对象中 只有内容 那么string和get_text()都可以使用
如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()可以获取数据
我们一般情况下 推荐使用get_text()
'''


# 2、节点的属性
obj = soup.select('#p1')[0]
# name是标签的名字
print(obj.name)  # p
# attrs将属性值作为一个字典返回
print(obj.attrs)  # {'id': 'p1', 'class': ['p1']}

print(obj.attrs.get('class'))  # ['p1']
print(obj.get('class'))  # ['p1']
print(obj['class'])  # ['p1']


if __name__ == '__main__':
    start = time.time()
    print('It takes', time.time() - start, "seconds.")

"""                                                           
                                       .-''-.               
.--.                    _..._        .' .-.  )              
|__|                  .'     '.     / .'  / /               
.--..-,.--.          .   .-.   .   (_/   / /                
|  ||  .-. |         |  '   '  |        / /                 
|  || |  | | _    _  |  |   |  |       / /         _    _   
|  || |  | || '  / | |  |   |  |      . '         | '  / |  
|  || |  '-.' | .' | |  |   |  |     / /    _.-').' | .' |  
|__|| |    /  | /  | |  |   |  |   .' '  _.'.-'' /  | /  |  
    | |   |   `'.  | |  |   |  |  /  /.-'_.'    |   `'.  |  
    |_|   '   .'|  '/|  |   |  | /    _.'       '   .'|  '/ 
           `-'  `--' '--'   '--'( _.-'           `-'  `--'  
Created on 2023/4/12 21:22.
@Author: haifei
"""
import time
from urllib import request
from bs4 import BeautifulSoup


url = 'https://www.starbucks.com.cn/menu/beverages/'
response = request.urlopen(url)
content = response.read().decode('utf-8')
# print(content)

soup = BeautifulSoup(content, 'lxml')
# xpath: //ul[@class="grid padded-3 product"]//strong/text()
name_list = soup.select('ul[class="grid padded-3 product"] strong')
for name in name_list:
    print(name.get_text())

'''
阿馥奇朵™
麦芽雪冷萃™
冷萃浮乐朵™
气致™冷萃浮乐朵™
冷萃冰咖啡
轻甜奶油冷萃
绵云冷萃
美式咖啡(热/冷)
拿铁(热/冷)
摩卡(热/冷)
卡布奇诺(热/冷)
焦糖玛奇朵(热/冷)
浓缩咖啡
馥芮白™
榛果风味拿铁(热/冷)
香草风味拿铁(热/冷)
焦糖浓缩咖啡星冰乐
抹茶星冰乐
芒果西番莲果茶星冰乐
摩卡星冰乐
摩卡可可碎片星冰乐
香草风味星冰乐
气炫冰山美式
橙柚派对
醋意桃桃
酸柠浮冷萃
气致™冷萃咖啡
经典巧克力饮品(热/冷)
红茶拿铁(热/冷)
抹茶拿铁(热/冷)
茶瓦纳™ 冰摇柚柚蜂蜜红茶
冰摇红莓黑加仑茶
冰摇芒果花草茶
茶瓦纳™冰摇桃桃乌龙茶
梨光清润路芭茶
橘香柚柚花草茶
'''


if __name__ == '__main__':
    start = time.time()
    print('It takes', time.time() - start, "seconds.")