爬虫

flutter使用Charles代理爬虫

由于flutter的http请求代理不走系统,所以只能在代码中设置代理ip: class MyHttpOverrides extends HttpOverrides { bool _badCertificateCallback(X509Certificate cert, String host, i ......
爬虫 flutter Charles

爬虫常用方法

1. selenium转beautifulsoup: pageSource = driver.page_source soup = BeautifulSoup(pageSource,'html.parser') 2. bs4 查找页面内容: resultPages = soup.find(text= ......
爬虫 常用 方法

记一次excel vba 爬虫实战

基于办公与互联网隔离,自带的office软件没有带本地帮助工具,因此在写vba程序时比较不方便(后来发现07有自带,心中吐血,瞎折腾些什么)。所以想到通过爬虫在官方摘录下来作为参考。 所使工具: python3.7,requests、selenium库 前端方面:使用了jquery、jstree 设 ......
爬虫 实战 excel vba

Day 25 25.1 Scrapy框架之全站爬虫(CrawlSpider)

Scrapy框架之全站爬虫(CrawlSpider) 在之前 Scrapy 的基本使用当中,spider 如果要重新发送请求的话,就需要自己解析页面,然后发送请求。 而 CrawlSpider 则可以通过设置 url 条件自动发送请求。 LinkExtractors CrawlSpider 是 Sp ......
爬虫 全站 CrawlSpider 框架 Scrapy

Day 25 25.2 Scrapy框架之分布式爬虫(scrapy_redis)

分布式爬虫(scrapy_redis) 分布式爬虫是指将一个大型的爬虫任务分解成多个子任务,由多个爬虫进程或者多台机器同时执行的一种爬虫方式。 在分布式爬虫中,每个爬虫进程或者机器都具有独立的爬取能力,可以独立地爬取指定的网页或者网站,然后将爬取到的数据进行汇总和处理。 分布式爬虫相对于单机爬虫的优 ......
爬虫 分布式 scrapy_redis 框架 Scrapy

记录常用的爬虫代码段(长期更新)

判断文件路径不存在创建文件路径 if not osp.exists(path): os.makedirs(path) 去除字符串非法字符,防止创建文件夹报错 #去掉非法字符 pitow = re.sub('[\/:*?"<>|]','-',name) ......
爬虫 常用 代码

pathon爬虫实战——爬取某网站的多页番剧内容

(本博客只为技术分学习,无其他用途) 1.准备 涉及的第三方库如下: 2.网页分析 2.1 检验网页 1. 运行浏览器,打开网页,按快捷键F12打开开发者工具,F5刷新页面 2. 在右侧点击Network,打开browser?sort=rank&page=1 文件,可以看到各种信息,查看表头 3. ......
爬虫 实战 内容 pathon 网站

记一次python写爬虫爬取学校官网的文章

有一位老师想要把官网上有关数字化的文章全部下载下来,于是找到我,使用python来达到目的 首先先查看了文章的网址 获取了网页的源代码发现一个问题,源代码里面没有url,这里的话就需要用到抓包了,因为很明显这里显示的内容是进行了一个请求,所以只能通过抓包先拿到请求的url从而获得每一篇文章对应的ur ......
校官 爬虫 python 文章

Python认识爬虫与反爬虫

爬虫:通过计算机去获取信息,以节约人力成本,不节约的就不需要用了。 反爬虫的最终:区别计算机和人,从而达到,排除计算机的访问,允许人的访问。 最终结论:爬虫与反爬虫都是有尽头的。 爬虫的尽头就是极度模拟用户(自动化)。 反爬虫的尽头就是机器无法识别而人类可以识别的验证码。 所以,省事的话,不如只学一 ......
爬虫 Python

一种通过编码的反爬虫机制

遇到一个反爬虫机制,该网页为gbk编码网页,但是请求参数中,部分请求使用gbk编码,部分请求使用utf8编码,还设置了一些不进行编码的安全字符,在爬取的过程中形成了阻碍。 提示:在认为参数设置正常,又无法正确爬取数据的情况下,通过response.requests.headers和esponse.r ......
爬虫 编码 机制

常用API(爬虫,正则表达式)

常用API(爬虫,正则表达式) 爬虫 ​ 本地爬虫:Pattern:表示正则表达式; ​ Matches:文本匹配器,作用按照正则表达式的规则读取字符串,从头开始读取,在大串中去找符合匹配规则的子串; ​ find:1.拿着文本匹配器从头开始读取,寻找是否有满足规则的子串;如果没有,方法返回fals ......
爬虫 正则 表达式 常用 API

python爬虫scrapy框架的使用

总结 scrapy startproject name scrapy genspider baidu http://www.baidu.com scrapy crawl baidu scrapy项目创建 scrapy startproject scrapy_baidu_091 创建爬虫文件 在spi ......
爬虫 框架 python scrapy

爬取的数据存mysql中、加代理,cookie,header,加入selenium、布隆过滤器、scrapy-redis实现分布式爬虫

上节回顾 # 1 scrapy架构 -爬虫:写的一个个类 -引擎: -调度器:排队,去重 -下载器 -pipline -下载中间件 -爬虫中间件 # 2 命令 -scrapy startproject 项目名 -scrapy gensipder 爬虫名 网址 -scrapy crawl 爬虫名字 - ......

爬虫介绍、request模块、自动登录、携带cookie的两种方式、requests.session的使用、响应Response对象

今日内容 爬虫介绍 request模块介绍 request发送get请求 request携带参数 url编码解码 携带请求头 发送post请求,携带数据 自动登录,携带cookie的两种方式 requests.session的使用 补充post请求携带数据编码格式 响应Response对象 编码问题 ......
爬虫 模块 Response requests 对象

关于Python爬虫使用技巧

首先,Python是一种非常流行的编程语言,拥有广泛的应用领域,例如数据分析、人工智能、Web开发等。如果您是初学者,可以开始学习基础的语法和概念,例如变量、数据类型、循环、函数等等。许多在线资源可以提供学习资料。 其次,Python拥有大量的第三方库和框架,可以帮助您提高开发效率并处理各种任务,例 ......
爬虫 使用技巧 技巧 Python

APP爬虫初阶之Pixel2刷机root

pixel2刷机 刷机准备 lineage zip twrp img magisk zip(github上下的是APK,需要把后缀改为zip) 刷机步骤 首先需要一个底包,这里我用的出厂自带的google官方系统,没有重新刷入 手机上打开usb调试,关闭屏幕超时锁屏,打开OEM锁 手机完全关机,按住 ......
爬虫 Pixel2 Pixel root APP

自学Python爬虫笔记(day7)

环境python3.9版本及以上,开发工具pycharm requests的进阶使用: 案例一 模拟用户登录-处理cookie: # 登录 -> 得到cookie # 带着cookie 去请求到暑假url -> 书架上的内容 # 必须把上面两个操作连起来 # 我们可以使用session进行请求 -> ......
爬虫 笔记 Python day7 day

自学Python爬虫笔记(day6)

环境python3.9版本及以上,开发工具pycharm XPath解析: XPath是一门在XML文档中查找信息的语言,XPath可以用来在XML文档中对元素和属性进行遍历,而我们熟知的HTML恰巧属于XML中的一个子集,所以完全可以用XPath去查找html中的内容。 首先看: <book> < ......
爬虫 笔记 Python day6 day

半小时实现Java网络爬虫框架

最近在做一个搜索相关的项目,需要爬取网络上的一些链接存储到索引库中,虽然有很多开源的强大的爬虫框架,但本着学习的态度,自己写了一个简单的网络爬虫,以便了解其中的原理。今天,就为小伙伴们分享下这个简单的爬虫程序!! 首先介绍每个类的功能: DownloadPage.java的功能是下载此超链接的页面源 ......
爬虫 框架 小时 网络 Java

反爬虫之有个操作也许可以检测aiohttp、httpx,requests也尴尬?

然后hyper库的开发者,如下链接回复: https://github.com/python-hyper/h11/issues/113 大概意思是这个不是一个问题,而是http请求的严格性判断问题,请求头的协议,按国际标准,是不能出现 “[Cache-Control]” 这种带有特殊符号作为响应头的... ......
爬虫 requests aiohttp httpx

通俗易懂的分布式爬虫部署

之前一直都是在学习一些爬虫的相关知识,为了能都更熟练技巧,让自己敲代码更得心应手,并将自己的部署爬虫的一些心得写出来,希望对大家有帮助。 服务器端 1、下载redis ,Redis Desktop Managerredis。 2、修改配置文件(找到redis下的redis.windows.conf ......
爬虫 分布式 易懂

Spider爬虫

爬虫Spider 该爬虫分为两部分,分别为Spider.py和model.py Spider.py 该文件主要业务逻辑是调用Selenium来通过自动化测试的方法实现模拟人的行为来对网页进行请求,并将请求到的HTML提取为文本,为后续的数据抽取做铺地。需要的第三方工具包Selenium,scrapy ......
爬虫 Spider

【0基础学爬虫】爬虫基础之数据存储

大数据时代,各行各业对数据采集的需求日益增多,网络爬虫的运用也更为广泛,越来越多的人开始学习网络爬虫这项技术,K哥爬虫此前已经推出不少爬虫进阶、逆向相关文章,为实现从易到难全方位覆盖,特设【0基础学爬虫】专栏,帮助小白快速入门爬虫,本期为数据存储。 概述 上期我们介绍到了文件存储,讲到了如何将数据存 ......
爬虫 基础 数据

Python爬虫之多线程加快爬取速度

之前我们学习了动态翻页我们实现了网页的动态的分页,此时我们可以爬取所有的公开信息了,经过几十个小时的不懈努力,一共获取了 16万+ 条数据,但是软件的效率实在是有点低了,看了下获取 10 万条数据的时间超过了 56 个小时,平均每分钟才获取 30 条数据。 注:软件运行的环境的虚拟主机,CPU: 2 ......
爬虫 线程 速度 Python

Python爬虫之读取数据库中的数据

之前几篇我们一直在研究如何从网站上快速、方便的获取数据,并将获取到的数据存储在数据库中。但是将数据存储在数据中并不是我们的目的,获取和存储数据的目的是为了更好的利用这些数据,利用这些数据的前提首先需要从数据库按一定的格式来读取数据,这一篇主要介绍如何实现通过 RESTful API 来获取数据库中的 ......
数据 爬虫 数据库 Python

【python爬虫】爬取美女图片

一,导入包文件 os:用于文件操作。这里是为了创建保存图片的目录 re:正则表达式模块。代码中包含了数据处理,因此需要导入该模块 request:请求模块。通过该模块向对方服务器发送请求获取数据包 lxml:通过etree模块中的xpath方法来获取html标签中的属性值或者文本内容 headers ......
爬虫 美女图片 python 美女 图片

爬虫问题报错总结

报错 selenium.common.exceptions.ElementNotInteractableException: Message: element not interactable 可能是代码中没有全屏,元素没有加载全 baiduweb = webdriver.Chrome(servic ......
爬虫 问题

Python爬虫之循环爬取多个网页

之前的文中介绍了如何获取给定网址的网页信息,并解析其中的内容。本篇将更进一步,根据给定网址获取并解析给定网址及其相关联网址中的内容。要实现这些功能,我们需要解决以下问题: 1、如何持续不断的获取 url,并读取相关内容。 2、如何判断网址是否已经读取过。 文中用到的代码均已上传到 github,在这 ......
爬虫 多个 网页 Python

第一个爬虫程序:爬取豆瓣电影top250

运行该程序需要下载两个扩展库 requestsL:在终端或cmd中运行 pip install requests BeautifulSoup: pip install bs4 代码: import requests from bs4 import BeautifulSoup headers = { ......
爬虫 豆瓣 程序 电影 top

自学Python爬虫笔记(day5)

环境python3.9版本及以上,开发工具pycharm HTML基础语法 HTML(Hyper Text Markup Language)超文本标记语言,是我们编写网页的最基本也是最核心的一种语言,其语言规则是用不同的标签对网页上的内容进行标记,从而使网页显示出不同的展示效果。 展示一部分: <! ......
爬虫 笔记 Python day5 day