transform mrctf 2020

记录--居中为什么要使用 transform?

这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助 引言 居中是我们在前端布局中经常会遇到的问题,其中包括水平居中和垂直居中。居中的方法很多,比如说水平居中可以使用text-align: center或者margin: 0 auto等等来实现,垂直居中则需要使用一些其它的特殊的技巧。比如说 ......
transform

【GKCTF 2020】ez三剑客

【GKCTF 2020】ez三剑客 收获 gopher协议SSRF 多利用github搜索已存在的函数漏洞 CMS审计的一些方法 1. ezweb 打开题目给了一个输入框,能够向输入的url发送http请求。F12查看一下,发现hint:?secret,将其作为当前url的GET参数: 直接给出了靶 ......
三剑客 GKCTF 2020

无依赖安装sentence-transformers

安装 pip install --no-cache-dir torch==1.8.0+cpu -f https://download.pytorch.org/whl/torch_stable.html pip install transformers tqdm numpy scikit-learn ......

Apache Spark 认证绕过漏洞(CVE-2020-9480)研究

一、Apache Spark简介 Spark是一种快速、通用、可扩展的大数据分析引擎,2009年诞生于加州大学伯克利分校AMPLab,2010年开源,2013年6月成为Apache孵化项目,2014年2月成为Apache顶级项目。项目是用Scala进行编写。 目前,Spark生态系统已经发展成为一个 ......
漏洞 Apache Spark 2020 9480

sql练习: 2020年最后一次登录

题目: 表: Logins + + + | 列名 | 类型 | + + + | user_id | int | | time_stamp | datetime | + + + (user_id, time_stamp) 是这个表的主键(具有唯一值的列的组合)。 每一行包含的信息是user_id 这个 ......
2020 sql

自然语言处理预训练—— 来自Transformers的双向编码器表示(BERT)

我们已经介绍了几种用于自然语言理解的词嵌入模型。在预训练之后,输出可以被认为是一个矩阵,其中每一行都是一个表示预定义词表中词的向量。事实上,这些词嵌入模型都是与上下文无关的。让我们先来说明这个性质。 从上下文无关到上下文敏感 ELMo(Embeddings from Language Models) ......

The 2020 ICPC Asia Yinchuan Regional Programming Contest

Preface 好久没有和队友一起打比赛了,然后今天纯战犯,G一个初值设错WA了三发还卡了1h,最后冲D也因为细节原因没调出来 但这场现场的榜只能用惨淡来形容,6题就稳Au了,而且感觉如果最后能出7个题的话甚至能有出线机会?看来还是前面题目区分度太小了 A. Best Player 签到题,按题意模 ......
Programming Regional Yinchuan Contest 2020

关于 Angular 构建之后生成的 dist 目录和 esm2020, fesm2015 等等

在Angular应用中,dist目录是构建应用后的输出目录,其中包含了已编译、打包和优化的应用文件。assets文件夹通常用于存放应用所需的静态资源,如图片、字体、配置文件等。esm2020、fesm2015和fesm2020是Angular构建过程中生成的文件夹,它们主要与Angular的模块加载 ......
Angular 目录 2020 2015 dist

关于TRANSFORM_TEX的一些问题

这个函数是用来控制shader面板中的tilling和offset的,本质为 uv * _MainTex_ST.xy + _MainTex_ST.zw; 但是使用TRANSFORM_TEX时需要注意的是,函数内部似乎没有封装完整,假如有类似于 TRANSFORM_TEX(uv + 20, _Main ......
TRANSFORM_TEX TRANSFORM 问题 TEX

2020 NOIP 补题

P7113 [NOIP2020] 排水系统 拓扑排序,但是 \(\_\_int128\)。 #include <bits/stdc++.h> using namespace std; #define endl '\n' #define inl inline #define eb emplace_ba ......
2020 NOIP

[MRCTF2020]千层套路

压缩包需要密码,暴力破解得知为0573 发现里面压缩包的密码也是文件名0114 估计是套娃题,拿脚本解压 import zipfile name = '0573' while True: fz = zipfile.ZipFile(name + '.zip', 'r') fz.extractall(p ......
套路 MRCTF 2020

[MRCTF2020]Ez_bypass

查看源码 I put something in F12 for you include 'flag.php'; $flag='MRCTF{xxxxxxxxxxxxxxxxxxxxxxxxx}'; if(isset($_GET['gg'])&&isset($_GET['id'])) { $id=$_G ......
Ez_bypass bypass MRCTF 2020 Ez

机器学习——Transformer

10.6.2节中比较了卷积神经网络(CNN)、循环神经网络(RNN)和自注意力(self-attention)。值得注意的是,自注意力同时具有并行计算和最短的最大路径长度这两个优势。因此,使用自注意力来设计深度架构是很有吸引力的。对比之前仍然依赖循环神经网络实现输入表示的自注意力模型 (Cheng  ......
Transformer 机器

The 2020 ICPC Asia Shenyang Regional Programming Contest J. Descent of Dragons

来道喜闻乐见的DS题,这题虽然比较套路但还是挺有趣的 一个朴素的想法就是用类似于珂朵莉树那样的方式维护所有内部等级相同的区间,但当操作数量上去后,显然分出的区间数量就变得不可控了,无法处理 另一个朴素的想法就是对于不同等级的龙维护它们的所有信息,直接暴力记录的话肯定不行,但考虑到操作的方式是从\(x ......

The 2020 ICPC Asia Shenyang Regional Programming Contest M. United in Stormwind

Preface 先补一下这周一队友VP的ICPC2020沈阳,这场由于我在补作业+晚上有大物实验,因此只参与了中间一个多小时,纯口胡了几个简单题 因为我没怎么参与所以过的其它题就不写补题+写博客了,毕竟队友会等于我会 那么就主要把我比赛时看了但没啥思路的M补了,AI祁神好像在补那我就不管了,后面好像 ......

最高加速9倍!字节跳动开源8比特混合精度Transformer引擎

前言 近年来,Transformer 已经成为了 NLP 和 CV 等领域的主流模型,但庞大的模型参数限制了它的高效训练和推理。于是字节跳动在 2019 年 12 月和 2021 年 6 月分别推出了高效推理和训练引擎 LightSeq,大大加速了 Transformer 系列模型的训练和推理,也打 ......
字节 精度 Transformer 引擎

idea2020.1.3汉化包报错问题

已解决:idea2020.1.3汉化包报错问题 问题描述:插件市场提供的版本不对、不兼容,所以需要手动下载安装 这里附上文件 使用方法:在插件市场,点击右上角设置,选择下面图片展示的选项,然后选择刚才下载的文件,点击重启即可完成! 最后成品 ......
问题 idea 2020

【MRCTF2020】Ezpop_Revenge——PHP原生类SSRF

【MRCTF2020】Ezpop_Revenge——PHP原生类SSRF 1. 收获 CMS初审计 google、baidu hack PHP原生类反序列化 2. 看题 2.1 读源码 网页存在源码泄露,访问www.zip,得到源码。同时要知道,typecho模板是存在反序列化注入漏洞的,但是其存在 ......
Ezpop_Revenge Revenge MRCTF Ezpop 2020

CTFshow Reverse BJDCTF2020 JustRE wp

运行的用ida打开后会看到一个与固定字符串比较的函数,这个串也给出了,没有其它输入的部分,说明如果这个不是flag的话(肯定不是)系统会自动给出解密后的flag,这里处理一下,运行得到flag{9969e2ddd64088f71af0caa891b4dc63} ......
CTFshow Reverse BJDCTF JustRE 2020

[UTCTF2020]file header

下载的图片无法打开,题目名称是文件头,放到010里查看一下 果然文件头被修改过,正常的PNG文件头如下 89 50 4E 47 0D 0A 1A 0A └───┬───┘└──┬──┘└─┬─┘└─┬─┘ │ │ │ │ 文件标识 | \r | \n | 文件结束标识 文件版本 补全后打开发现fla ......
header UTCTF 2020 file

[MRCTF2020]你传你呢

是文件上传漏洞,对于文件上传漏洞,参考师傅们的文章做个简单的总结 1、前端绕过,抓包修改后缀名, 2、文件内容绕过,用图片马,抓包修改后缀绕过 3、黑名单绕过,那么我们可以改成phtml抓包绕过 4、.htaccess绕过,只要有这个配置文件,并且内容为“AddType application/x- ......
MRCTF 2020

[WUSTCTF2020]girlfriend

下载了一个音频文件,打开来听起来像是在打电话输入号码的声音,猜测DTMF拨号音识别,有个程序可以识别一下dtmf2num.exe,通过链接可以下载http://aluigi.altervista.org/mytoolz/dtmf2num.zip DTMF2NUM 0.2 by Luigi Aurie ......
girlfriend WUSTCTF 2020

Web_BUUCTF_WriteUp | [ACTF2020 新生赛]Include

题目 分析 F12 打开查看器,只有一个 php 文件,URL 为 http://9862c108-f9d1-4746-aeb0-848c1e0d8147.node4.buuoj.cn:81 点 tips 看看,啥也妹有,URL 为 http://9862c108-f9d1-4746-aeb0-84 ......

Cost Aggregation with Transformers for Sparse Correspondence-读书笔记

Cost Aggregation with Transformers for Sparse Correspondence:2022 背景: 该论文结合了SuperGlue和CATs,将里面所有手工制作的部分都代替了。将CATs引入该模型,用Transformer取代手工制作的成本聚合方法,用于具有自 ......

Transformers 中原生支持的量化方案概述

本文旨在对 transformers 支持的各种量化方案及其优缺点作一个清晰的概述,以助于读者进行方案选择。 目前,量化模型有两个主要的用途: 在较小的设备上进行大模型推理 对量化模型进行适配器微调 到目前为止,transformers 已经集成并 原生 支持了 bitsandbytes 和 aut ......
Transformers 方案

TRL(Transformer Reinforcement Learning) PPO Trainer 学习笔记

(1) PPO Trainer TRL支持PPO Trainer通过RL训练语言模型上的任何奖励信号。奖励信号可以来自手工制作的规则、指标或使用奖励模型的偏好数据。要获得完整的示例,请查看examples/notebooks/gpt2-sentiment.ipynb。Trainer很大程度上受到了原 ......

[题解] P6772 [NOI2020] 美食家

P6772 [NOI2020] 美食家 给你一张 \(n\) 个点 \(m\) 条边的有向图,经过每条边需要 \(w_i\) 的时间,每个点有价值 \(c_i\)。每次经过一个点时可以获得它的价值(可重复获得)。 还有 \(k\) 个附加价值 \((t, x, y)\) 表示如果你在 \(t\) 时 ......
美食家 题解 美食 P6772 6772

「题解」P6791 [SNOI2020] 取石子

anti-game 没有用,能取到 \(n-1\) 的必胜,不能取到 \(n-1\) 的必败,所以现在考虑取走最后石子获胜的情况。 对于一个 \(n\) 来说合法的 \(k\) 一定是一个前缀,并且一定是贪心取最小的(留给对方的机会更小),所以启发将每个 \(n\) 最小的合法的 \(k=a_n\) ......
题解 石子 P6791 6791 2020

大语言模型里的Transformer还可以这么用?

前言 自 LLM 诞生以来,我们见到了很多把 LLM 接到 Vision Backbone 后面的算法,那么有两个自然的问题:(1)LLM 的 Transformer 是否可以直接处理视觉 Token?(2)LLM 的 Transformer 是否可以提升处理视觉 Token 的 Performan ......
Transformer 模型 语言

《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》阅读笔记

论文标题 《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》 Swin 这个词貌似来自后面的 Shifted Windows Shifted Windows:移动窗口 Hierarchical:分层 作者 ......