爬虫 头条

爬虫 | Beautiful Soup 初识

本博客将学习用 Beautiful Soup 库来实现数据抓取。将会通过爬取世界大学校园排名的数据来讲解 Beautiful Soup 库的基础知识。它包括如何用 Beautiful Soup 库的解析器去解析页面内容、如何遍历和搜索标签树、如何提取出关键的数据并保存到列表或者字典里。 ### Be ......
爬虫 Beautiful Soup

Java爬虫--HttpClient-Post请求

//下面是一个demo:package test; import org.apache.http.HttpEntity; import org.apache.http.client.methods.CloseableHttpResponse; import org.apache.http.impl. ......
爬虫 HttpClient-Post HttpClient Java Post

爬虫各种问题总结方案

### selenium报错 - selenium.common.exceptions.ElementNotInteractableException: Message: element not interactable 可能是代码中没有全屏,元素没有加载全 ``` baiduweb = webdr ......
爬虫 方案 问题

Scrapyd、scrapyd-client部署爬虫项目

命令参考:[https://github.com/scrapy/scrapyd-client](https://github.com/scrapy/scrapyd-client) [https://scrapyd.readthedocs.io](https://scrapyd.readthedocs ......
爬虫 scrapyd-client Scrapyd scrapyd 项目

Scrapy如何在启动时向爬虫传递参数

**高级方法:** **一般方法:** 运行爬虫时使用-a传递参数 ```Bash scrapy crawl 爬虫名 -a key=values ``` 然后在爬虫类的__init__魔法方法中获取kwargs ```Python class Bang123Spider(RedisCrawlSpid ......
爬虫 参数 Scrapy

Scrapy-CrawlSpider爬虫类使用案例

CrawlSpider类型的爬虫会根据指定的rules规则自动找到url比自动爬取。 优点:适合整站爬取,自动翻页爬取 缺点:比较难以通过meta传参,只适合一个页面就能拿完数据的。 ```Python import scrapy from scrapy.http import HtmlRespon ......

Scrapy如何在爬虫类中导入settings配置

假设我们在settings.py定义了一个IP地址池 ```Bash ##### 自定义设置 IP_PROXY_POOL = ( "127.0.0.1:6789", "127.0.0.1:6789", "127.0.0.1:6789", "127.0.0.1:6789", ) ``` 要在爬虫文件中 ......
爬虫 settings Scrapy

Scrapy-redis组件,实现分布式爬虫

安装包 ```Python pip install -U scrapy-redis ``` settings.py ```Python ##### Scrapy-Redis ##### ### Scrapy指定Redis 配置 ### # 其他默认配置在scrapy_redis.default.py ......
爬虫 分布式 Scrapy-redis 组件 Scrapy

Scrapy爬虫文件代码基本认识和细节解释

```Python import scrapy from scrapy.http.request import Request from scrapy.http.response.html import HtmlResponse from scrapy_demo.items import Forum ......
爬虫 细节 代码 文件 Scrapy

Scrapy创建项目、爬虫文件

# 创建项目 **执行命令** ```Bash scrapy startproject ``` # **项目结构** ![](https://secure2.wostatic.cn/static/dkJyXRT5EDBrNskNyzpNyY/image.png?auth_key=1689564783 ......
爬虫 文件 项目 Scrapy

爬虫 | <Response [418]>原因

在我们调用`requests.get(网址)`访问网页时,输出为``。是什么原因呢? 如下运行代码: ```python # 导入访问网页要用的库 import requests # 申明一个变量存储网址 # 网址是一个字符串变量,注意网址前后都必须有引号 url = 'https://movie. ......
爬虫 Response 原因 418 lt

python爬虫抓取小说

我这里是使用的**requests**模块和**re**(正则)模块 可以模仿浏览器正常访问网页返回网页源码的方式,通过正则获取到小说的名字,以及每个章节名称和对应的网页链接,并将小说正文截取出来,写入到文本中,具体代码实现如下: ``` # 导入requests模块 import requests ......
爬虫 python 小说

「爬虫04」selenium

## 1 selenium等待元素加载 ```python # 程序执行速度很快 》获取标签 》标签还没加载好 》直接去拿会报错 # 显示等待:当你要找一个标签的时候,给它加单独加等待时间 # 隐士等待:只要写一行,代码中查找标签,如果标签没加载好,会自动等待 browser.implicitly_ ......
爬虫 selenium

Python爬虫突破验证码技巧 - 2Captcha

在互联网世界中,验证码作为一种防止机器人访问的工具,是爬虫最常遇到的阻碍。验证码的类型众多,从简单的数字、字母验证码,到复杂的图像识别验证码,再到更为高级的交互式验证码,每一种都有其独特的识别方法和应对策略。在这篇文章中,我们将一一介绍各种验证码的工作原理和使用[2Captcha](https://... ......
爬虫 2Captcha Captcha 技巧 Python

【爬虫案例】用Python爬取知乎热榜数据!

[toc] # 一、爬取目标 您好,我是[@马哥python说](https://www.zhihu.com/people/13273183132),一名10年程序猿。 本次爬取的目标是:[知乎热榜](https://www.zhihu.com/hot) ![知乎热榜页面](https://img2 ......
爬虫 案例 数据 Python

函数:随机生成User-Agent 字符串,用于模拟不同的浏览器和操作系统类型,增加爬虫的隐蔽性

1 def get_ua(self): 2 first_num = random.randint(99, 103) 3 third_num = random.randint(0, 5060) 4 fourth_num = random.randint(0, 140) 5 os_type = ['(W ......
隐蔽性 爬虫 字符串 User-Agent 函数

「爬虫03」bs4&selenium

## 1 爬取新闻 ```python # 1 爬取网页 requests # 2 解析 xml格式,用了re匹配的[xml包含html,html是xml的一种] html,bs4,lxml。。。 json: -python :内置的 -java : fastjson 》漏洞 -java: 谷歌 G ......
爬虫 selenium bs4 amp bs

深入了解爬虫原理

HTTP/1.1方法 HTTP1.0中,只有GET和POST,没有其他方法,如果是新网站是可以获取内容 head命令只能返回头部部分,类似于Ping测试网址是否连通 put只能上传最新的内容,patch局部修改 主要是get和Post HTTPS多实现一层S,五层中,最上面是应用层,然后是多出来的安 ......
爬虫 原理

【经典爬虫案例】用Python爬取微博热搜榜!

[toc] # 一、爬取目标 您好,我是[@马哥python说](https://www.zhihu.com/people/13273183132),一名10年程序猿。 本次爬取的目标是: [微博热搜榜](https://s.weibo.com/top/summary?cate=realtimeho ......
爬虫 案例 经典 Python

分布式爬虫

要实现分布式爬虫,您需要将爬取任务分配给多个爬虫节点,并协调它们的工作。在Python中,您可以使用分布式任务队列和消息传递机制来实现这一目标。 以下是一个简单的示例,展示了如何使用Python中的Celery库来实现分布式爬虫: 1. 安装Celery库:请运行以下命令来安装Celery库。 `` ......
爬虫 分布式

爬虫—图形验证码获取

# 获取验证码图片步骤 **1. 使用selenium操作谷歌浏览器,打开目标网站** **2. 对目标网站进行截图,并将图片保存到本地** **3. 获取验证码元素节点在屏幕上的位置,即横纵坐标** **4. 使用Image库读取保存的截图** **5. 使用pillow模块抠出大图中的验证码 只 ......
爬虫 图形

【爬虫案例】用Python爬取百度热搜榜数据!

# 一、爬取目标 您好,我是[@马哥python说](https://www.zhihu.com/people/13273183132),一名10年程序猿。 本次爬取的目标是:[百度热搜榜](https://top.baidu.com/board?tab=realtime) ![百度热搜榜页面](h ......
爬虫 案例 数据 Python

乐观锁 与 悲观锁【黑马头条】

一、概念介绍 乐观锁 每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。 悲观锁 每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁。 二、乐观锁使用 1、给实体类变量加 @Version 注解 /* ......
黑马 头条

黑马头条【技术架构】

用户层 Web Android IOS H5 CDN CDN Node1 CDN 管理中心 CDN Node2 HTML CSS / JS HTML CSS / JS Json Video Json Video LB Nginx + LVS 视图层 Weex + Vue Vue + Echarts ......
黑马 头条 架构 技术

了解网络爬虫

理解网络爬虫 1.1网络爬虫的定义 当今最大的网络是互联网,最大的爬虫就是各类搜索引擎,包括谷歌丶百度等。网络爬虫就是按照一定规则去爬去人类所需要的信息的程序,主要通过对URL的请求来实现。一般来说,从搜索引擎这类爬虫搜索到的信息是非常宽泛的,而且夹杂着各种广告,信息是不纯粹的,也有可能不是我们需要 ......
爬虫 网络

爬虫学习02 requests高级用法

## 1 requests高级用法 ### 1.0 自动携带cookie 的session对象 ```python # session对象 》已经模拟登录上了一些网站 》单独把cookie 取出来 -res.cookies 是cookiejar对象,里面有get_dict()方法转换成字典 -转成字 ......
爬虫 requests

爬虫使用

### 爬取新闻 ```python import re import requests from bs4 import BeautifulSoup import pymysql # 建立数据库链接 conn = pymysql.connect( user='root', password="123 ......
爬虫

爬虫学习01

## 1 扫码登录功能 ```python # 前端 1 前端进入扫码登录页面 》向后端发送请求 》后端生成二维码图片 》显示在前端,暂存key 2 掏出手机,打开对应的app 》扫描二维码 》app端提示是否登录 》当你点登录 》app能解析出这个地址 》取出你当前app登录的token 》向这个 ......
爬虫

延迟任务【黑马头条 - day05】

一、相关介绍 定时任务:由固定周期的,有明确的触发时间 延迟任务:没有固定的开始时间,它常常是由一个事件触发的,而在这个事件触发之后的一段时间内触发另一个事件,任务可以立即执行,也可以延迟。 二、延迟任务的应用场景 三、技术对比 【DelayQueue】基于JVM JDK 自带 DelayQueue ......
黑马 头条 任务 day 05

敏感词 - 过滤 - DFA算法【黑马头条】

方案 说明 数据库模糊查询 效率太低 String.indexOf(" ")查询 数据库量大的话也是比较慢 全文检索 分词再分配 DFA算法 确定有穷自动机(一种数据结构) DFS算法实现原理 一、DFA算法介绍 DFA全程为:Deterministic Finite Automaton,即确定有穷 ......
黑马 算法 头条 DFA