transform mrctf 2020

BUUCTF [GYCTF2020]FlaskApp

因为题目名Flask,所以先观察功能点,寻找易发生ssti的功能。 考虑到`功能异常抛出常见于解密环节`,所以在解密界面随便输入一段不能解密的。 ![](https://img2023.cnblogs.com/blog/2539847/202309/2539847-20230908093022776 ......
FlaskApp BUUCTF GYCTF 2020

Nougat:一种用于科学文档OCR的Transformer 模型

随着人工智能领域的不断进步,其子领域,包括自然语言处理,自然语言生成,计算机视觉等,由于其广泛的用例而迅速获得了大量的普及。光学字符识别(OCR)是计算机视觉中一个成熟且被广泛研究的领域。它有许多用途,如文档数字化、手写识别和场景文本识别。数学表达式的识别是OCR在学术研究中受到广泛关注的一个领域。 ......
Transformer 模型 文档 科学 Nougat

听我说,Transformer它就是个支持向量机

前言 SVM is all you need,支持向量机永不过时。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV全栈指导班、基 ......
向量 Transformer 就是

2020 年书单

分享一下 2020 年读的一些值得推荐的书: - 《上帝掷骰子吗·量子物理史话》 副标题已经概括的很清晰了,了解量子物理必读书目。 - 《编码·隐匿在计算机软硬件背后的语言》 从灯泡的亮和灭,到电报和继电器;从盲文是怎么传递信息的,到一个加法器的实现。一步步讲述20世纪最伟大的发明计算机是如何产生的 ......
书单 2020

Aapache_Tomcat_AJP协议_文件包含漏洞(CVE-2020-1938)

[toc] # Aapache_Tomcat_AJP_文件包含漏洞(CVE-2020-1938) | 说明 | 内容 | | | | | 漏洞编号 | CVE-2020-1938 | | 漏洞名称 | Aapache_Tomcat_AJP文件包含漏洞 | | 漏洞评级 | 高危 | | 影响范围 | ......

Spikformer: When Spiking Neural Network Meets Transformer

郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Published as a conference paper at ICLR 2023(同大组工作) ABSTRACT 我们考虑了两种生物学合理的结构,脉冲神经网络(SNN)和自注意机制。前者为深度学习提供了一种节能且事件驱动的范式,而 ......

ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型

京东探索研究院联合悉尼大学在这方面做出了探索,提出了基于简单视觉transformer的姿态估计模型ViTPose和改进版本ViTPose+。ViTPose系列模型在MS COCO多个人体姿态估计数据集上达到了新的SOTA和帕累托前沿。 ......
Transformer 姿态 模型 视觉 身体

XMind2020安装激活

## 前言 >XMind 是一款非常实用的思维导图软件,应用全球最先进的Eclipse RCP 软件架构,全力打造易用、高效的可视化思维软件,强调软件的可扩展、跨平台、稳定性和性能,致力于使用先进的软件技术帮助用户真正意义上提高生产率。 ## 安装步骤 1. 右键文末获取到的压缩包,解压缩。 ![] ......
激活 XMind 2020

BalticOI 2020 Day1 小丑

整体二分。 有个小技巧,就是可以把存边的数组往后复制一遍,然后删去区间 $[l,r]$ 就相当于保留区间 $[r+1,l+m-1]$ 的边。于是只需要解决这么个问题: > 给定一张 $n$ 个点 $m$ 条边的无向图,$q$ 次询问,每次只保留区间 $[l,r]$ 的边,问是否是二分图。 乍一看有点 ......
小丑 BalticOI 2020 Day1 Day

【论文阅读】CAT: Cross Attention in Vision Transformer

论文地址:[2106.05786] CAT: Cross Attention in Vision Transformer (arxiv.org) 项目地址:https://github.com/linhezheng19/CAT 一、Abstract 由于Transformer在NLP中得到了广泛的应 ......
Transformer Attention Vision 论文 Cross

CMT:卷积与Transformers的高效结合

论文提出了一种基于卷积和VIT的混合网络,利用Transformers捕获远程依赖关系,利用cnn提取局部信息。构建了一系列模型cmt,它在准确性和效率方面有更好的权衡。 CMT:体系结构 CMT块由一个局部感知单元(LPU)、一个轻量级多头自注意模块(LMHSA)和一个反向残差前馈网络(IRFFN ......
卷积 Transformers CMT

Swin-Transformer 源码学习与使用手册

拜读了VIT以及TNT以及Swin-Transformer 的论文,结合B站up主的分析, 预感Swin-Transformer具有ResNet似的跨里程碑式的意义, 因此学习Swin-Transformer源码及其使用,记录如下。 Run Swin-Tpython -m torch.distrib ......

Mac Mini Apple M1 2020 上构建Unity 2017/2018工程

对于Mac Mini Apple M1 2020来说,因为更新到了MacOS 13.4.1 ,在该设备上不能打开Unity 2017/2018了。所以采用另外的方式来构建ios版本:在windows10系统上导出ios build, 然后把该build拷贝到mac minini上来构建。尝试了该方式 ......
工程 Apple Unity 2020 2017

BUUCTF [BJDCTF2020]EasySearch

F12、SQL注入、robots.txt、抓包都没发现啥。题目名是EasySearch,可能是扫描网站。 但是我用dirsearch什么都没跑出来。看别人WP发现有个`index.php.swp`。 得到PHP源码: ``` Hello,'.$_POST['username'].' *** ***' ......
EasySearch BUUCTF BJDCTF 2020

ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响

前言 本文研究了 Transformer 类模型结构(configration)设计(即模型深度和宽度)与训练目标之间的关系。结论是:token 级的训练目标(如 masked token prediction)相对更适合扩展更深层的模型,而 sequence 级的训练目标(如语句分类)则相对不适合 ......

【ICML2022】Understanding The Robustness in Vision Transformers

来自NUS&NVIDIA 文章地址:[2204.12451] Understanding The Robustness in Vision Transformers (arxiv.org) 项目地址:https://github.com/NVlabs/FAN 一、Motivation CNN使用滑动 ......

Proj CDeepFuzz Paper Reading: Invariance-inducing regularization using worst-case transformations suffices to boost accuracy and spatial robustness

## Abstract 本文: Task: 1. prove invariance-inducing regularizers can increase predictive accuracy for worst-case spatial transformations 2. prove that ......

Continuous-Time Sequential Recommendation with Temporal Graph Collaborative Transformer

[TOC] > [Fan Z., Liu Z., Zhang J., Xiong Y., Zheng L. and Yu P. S. Continuous-time sequential recommendation with temporal graph collaborative transfo ......

致远OA webmail.do 任意文件下载 CNVD-2020-62422

## 漏洞描述 致远OA存在任意文件下载漏洞,攻击者可利用该漏洞下载任意文件,获取敏感信息 ## 影响版本 致远OA A6-V5 致远OA A8-V5 致远OA G6 ## 漏洞复现 fofa语法:`app="致远互联-OA"` 登录页面如下: ![](https://img2023.cnblogs ......
文件下载 webmail 文件 62422 CNVD

BUUCTF [网鼎杯 2020 朱雀组]Nmap

payload:`127.0.0.1 | ' -oG hack.phtml '` ``` nmap `-oG`:将扫描结果输出到一个文本文件中,G代表生成一种称为"grepable output"(可用于grep命令的输出)的格式,这种格式是一种易于处理的文本格式。 ``` ``` 写入`hack. ......
朱雀 BUUCTF 2020 Nmap

银澎云计算 好视通视频会议系统 任意文件下载 CNVD-2020-62437

## 漏洞描述 银澎云计算 好视通视频会议系统 存在任意文件下载,攻击者可以通过漏洞获取敏感信息 ## 漏洞复现 fofa语法:`app="好视通-视频会议"` 登录页面如下: ![](https://img2023.cnblogs.com/blog/2541080/202309/2541080-2 ......

P9402 [POI2020-2021R3] Droga do domu

## Description $n$ 个点, $m$ 条边,无重边自环,边有长度。 1 号点是学校, $n$ 号点是家。 $s$ 条公交线路。公交逢点必停,且一个点不会停两次。在一条边上行驶的时间就是它的长度。给定了第一班 公交发车时间和发车间隔。 在时刻 $t$ 从学校出发,至多换乘 $k$ 次, ......
P9402 Droga 9402 2020 2021

BUUCTF [BJDCTF2020]Cookie is so stable

考点:SSTI的Twig模板注入 尝试多次后(别人),发现是SSTI注入 输入`{{7*7}}`和`{{7*'7'}}`,返回的结果是 ![](https://img2023.cnblogs.com/blog/2539847/202309/2539847-20230901140557428-9074 ......
BUUCTF BJDCTF Cookie stable 2020

BUUCTF [WUSTCTF2020]朴实无华

1. 目录扫描 扫出来了**robot.txt**,该文件规定了搜索引擎抓取工具(爬虫)可以访问您网站上的哪些网址,主要用于管理流向您网站的抓取工具流量,通常用于阻止 Google 访问某个文件。 ``` User-agent: * Disallow: /fAke_f1agggg.php ``` 访 ......
朴实无华 WUSTCTF BUUCTF 2020

BUUCTF [BJDCTF2020]Mark loves cat

一进入环境,毫无头绪。 使用`dirsearch`扫出了`/.git/`,可以猜出本关一定与git源码泄露有关。 `python .\dirsearch.py -e * -u http://7cb1db04-980a-4af8-856b-7f6cd5ea231d.node4.buuoj.cn:81/ ......
BUUCTF BJDCTF loves 2020 Mark

BUUCTF [BSidesCF 2020]Had a bad day

进入网站观察到`http://71882873-f81e-4755-8040-5e7bb6b2230f.node4.buuoj.cn:81/index.php?category=woofers` 先尝试读取一下index.php,没有反应。 试试php伪协议,payload:`?category=p ......
BSidesCF BUUCTF 2020 Had bad

transformer解读-更新中

Transformer是一种基于注意力机制的深度学习架构,专门用于处理序列数据,尤其在自然语言处理领域取得了重大突破。它由Google于2017年首次提出,并在各种NLP任务中表现出色,如机器翻译、文本生成和情感分析。 主要特点包括: 自注意力机制:Transformer的核心是自注意力(Self- ......
transformer

P6620 [省选联考 2020 A 卷] 组合数问题

无人清楚我的路似那孤山起了雾。 当年的遗憾,现在弥补确是太晚了。我真想回到当初,如果我更努力一点的话。 容易想到当$m=1$时 $\sum_{k=0}^{n}k\cdot x^kC(n,k),n\le 1e9$ 显有 $kC(n,k)=nC(n-1,k-1)$ 原式=$xn\sum_{k=1}^{n ......
问题 P6620 6620 2020

NLP原理系列1-说清楚transformer原理

NLP原理系列1-说清楚transformer原理 来用思维导图和截图描述。 思维导图的本质是 变化(解决问题)-> 更好的, 或者复杂问题拆分为小问题 以及拆分的思路。 参考链接:李宏毅 transformer原理。 一 tansformer的推理及训练过程 1 tf 训练过程 红框部分是 训练得 ......
原理 transformer NLP

[DS记录] P6623 [省选联考 2020 A 卷] 树

[题目传送门](https://www.luogu.com.cn/problem/P6623) $\rm Trie$ 树的一些牛逼应用 异或和是可以用 $\rm 01-Trie$ 维护的。我们发现对于一个点 $x$,需要需要维护 $x$ 子树的所有点的异或和,这可以理解成 $\rm Trie$ 树的 ......
P6623 6623 2020