transform mrctf 2020

[WUSTCTF2020]朴实无华 1

原理 intval绕过 MD5加密值和原值相等绕过 命令执行空格过滤 解题过程 intval($num) < 2020 && intval($num + 1) > 2021绕过:https://blog.csdn.net/qq_47804678/article/details/128814377 参 ......
朴实无华 WUSTCTF 2020

Transformer

import math import torch from torch import nn import matplotlib.pyplot as plt from d2l import torch as d2l def sequence_mask(X, valid_len, value=0): " ......
Transformer

[BJDCTF2020]ZJCTF,不过如此

原理 关于preg_replace \e的代码执行 双引号和单引号的区别 可变变量 解题过程 代码审计 <?php error_reporting(0); $text = $_GET["text"]; $file = $_GET["file"]; if(isset($text)&&(file_get ......
BJDCTF ZJCTF 2020

java fx 报错 java.lang.instrument ASSERTION FAILED ***: “!errorOutstanding“ with message transform 循环引用

问题描述 在java fx 中遇到的错误 在fxml 中 通过了 fx:controller 绑定了 控制器 在控制的controller 里面使用了FXMLLoader.load 获取这个fxml文件 出现报错 java.lang.instrument ASSERTION FAILED ***: ......

记一次排坑:Unity2020.3.6接Google AdMob打apk

Unity版本:2020.3.6 AdMob版本:8.3.0 过程比较折腾,原先项目中使用的IronSource可打包成功,之后移除IronSource接了Admob,可能会存在旧插件影响。且两次打包间隔较久,机器的环境可能会存在问题,特别是gradle。大约折腾了2天多。过程中出现java报错、g ......
Google Unity AdMob 2020 apk

[GYCTF2020]Blacklist

原理 堆叠查询 查询表名和表结构的方法 handler的使用 payload: 1' and extractvalue(1,concat(0x7e,database()))--+ 1';show databases;--+ 1';show tables;--+ desc 'FlagHere';--+ ......
Blacklist GYCTF 2020

[网鼎杯 2020 青龙组]AreUSerialz

原理 反序列化 强比较绕过 public和protected属性类型不敏感 解题过程 进入靶场出现源码 <?php include("flag.php"); highlight_file(__FILE__); class FileHandler { protected $op; protected ......
青龙 AreUSerialz 2020

P6631 [ZJOI2020] 序列题解

难度:困难 主要算法:贪心 题目链接:https://www.luogu.com.cn/problem/P6631 解题思路 简化问题:定义直线为覆盖ai,ai+1,ai+2 的操作,跳线为覆盖ai,ai+2,ai+4的操作。题意简化为使用一些直线和一些跳线使每个位置被覆盖正好ai次。 小范围思考: ......
题解 序列 P6631 6631 2020

Personalized Transformer for Explainable Recommendation论文阅读笔记

Personalized Transformer for Explainable Recommendation论文阅读笔记 摘要 ​ 自然语言生成的个性化在大量任务中都起着至关重要的作用。比如可解释的推荐,评审总结和对话系统等。在这些任务中,用户和项目ID是个性化的重要标识符。虽然Transfome ......

[MRCTF2020]Ez_bypass

原理 md5的弱比较问题 字符串和数字的弱比较问题 解题过程 进入靶场查看原代码,要代码审计 I put something in F12 for you include 'flag.php'; $flag='MRCTF{xxxxxxxxxxxxxxxxxxxxxxxxx}'; if(isset($ ......
Ez_bypass bypass MRCTF 2020 Ez

[MRCTF2020]你传你呢

原理 .htaccess文件解析漏洞 以及MIME的修改,注意注意,三种MIME值png,jpg,gif不行的话都要试一遍,不要错过啦- - 手搓连接木马的系统命令多种使用方式 payload:var_dump(scandir('/')); echo file_get_contents('/flag ......
MRCTF 2020

[BJDCTF2020]Easy MD5

原理 抓包看源码 select * from 'admin' where password=md5($pass,true)的绕过 md5==的弱比较问题 md5 的弱比较问题 解题过程 进入靶场看到输入框,随便输几个传递参数:leveldo4.php?password=xx。但是怎么输都没有反应,页 ......
BJDCTF 2020 Easy MD5 MD

CVE-2020-10977_GitLab任意文件读取导致RCE漏洞复现

CVE-2020-10977_GitLab任意文件读取导致RCE漏洞复现 0x01 环境安装 1 yum -y install policycoreutils openssh-server openssh-clients postfix 分配给虚拟机的物理内存最好是4G。 下载gitlab安装包 C ......
漏洞 文件 GitLab 10977 2020

[ACTF2020 新生赛]BackupFile

原理 解题过程 进入靶场就让我们找source file,原代码也没其他东西了,只能扫目录了 python dirsearch.py -u 3c33c7f9-7306-4c4e-99a6-13b8ef0803b9.node4.buuoj.cn:81 --delay=3 扫出来index.php.ba ......
BackupFile 新生 ACTF 2020

transformer模型训练、推理过程分析

复杂度分析 推理过程图示 Double QLORA示意图 ......
transformer 模型 过程

[BSidesCF 2020]Had a bad day

原理 文件包含 liunx对不存在目录不敏感 伪协议利用 解题过程 进入靶场可以看到两个按钮,点其中一个,会传递category参数,然后会出现随机图片,两个按钮的参数值不一样,查看页面原代码证实了这样的操作 试试修改category值,发现只让有两个值其中一个 那再修改参数值,发现涉及includ ......
BSidesCF 2020 Had bad day

[网鼎杯 2020 朱雀组]phpweb

原理 反序列化 命令执行 call_user_func 解题过程 首先进入靶场莫名其妙报了个错,翻译一下是date()函数的问题- -不管了,先看页面原代码 看到这里有自动post请求,数据时func=date&p=Y-m-d h:i:s a,看格式像是传入一个函数和参数,那就试试 使用func=s ......
朱雀 phpweb 2020

[BJDCTF2020]The mystery of ip

原理 X-forwarded-for SSTI模板注入 命令执行 解题过程 进入靶场,没发现什么,照例查看三个页面的原代码 flag页面会打印ip hint页面提示说如何知道我们的ip的 一般是通过数据包的X-Forwarded-for字段知道ip的,那我们抓包,可以发现的确是通过获取这个值来打印出 ......
mystery BJDCTF 2020 The ip

文本分类 2018-2020 文献分析

文本分类 转自 https://mp.weixin.qq.com/s/0hKzedHimfPtWgzEk49YzA https://mp.weixin.qq.com/s/0hKzedHimfPtWgzEk49YzA A Survey on Text Classification: From Shal ......
文献 文本 2018 2020

transformer如何实现并行

RNN 无法并行 我们先看一个典型的基于RNN的Encoder-Decoder结构 输入是:“机器学习“,输出是“machine learning”。模型的大概工作时序是:Encoder部分,输入序列逐个送进RNN,计算出最后时刻的隐藏状态c,作为上下文信息传给Decoder。Decoder部分,将 ......
transformer

Informer: 一个基于Transformer的效率优化的长时间序列预测模型

Informer: 一个基于Transformer的效率优化的长时间序列预测模型 Informer创新点介绍 ProbSparse self-attention self-attention蒸馏机制 一步Decoder 实验结果 总结 Informer: Beyond Efficient Trans ......
序列 Transformer Informer 模型 效率

如何降低视觉Transformer计算成本?时间冗余方法让人大吃一惊

前言 在为语言领域带来变革之后,Transformer 正在进军视觉领域,但其也有着高计算成本的问题。近日,威斯康星大学麦迪逊分校一个研究团队提出了 Eventful Transformer,可通过在视觉 Transformer 中利用时间冗余来节省成本。 本文转载自机器之心 仅用于学术分享,若侵权 ......

from_rnn_2_transformer-cnblog

从RNN到Transformer 各式各样的“attention” 不管是在CV领域还是NLP领域, attention实质上就是一种取权重求和的过程。使得网络focus在其应该focus的地方。 根据Attention的计算区域,可以分成以下几种: 1)Soft Attention,这是比较常见的 ......

Transformer 优缺点分析

https://aistudio.baidu.com/projectdetail/4909750 https://zhuanlan.zhihu.com/p/330483336 Transformer优点有位置关联操作不受限,建模能力强,通用性强,可扩展性强,能更好的进行并行运算。 Transform ......
优缺点 Transformer

【NIPS2021】Twins: Revisiting the Design of Spatial Attention in Vision Transformers

来自美团技术团队♪(^∀^●)ノシ 论文地址:https://arxiv.org/abs/2104.13840 代码地址:https://git.io/Twins 一、写在前面 本文提出了两种视觉转换器架构,即Twins-PCPVT和Twins-SVT。 Twins-PCPVT 将金字塔 Trans ......

2023牛客国庆集训派对day8/牛客2020年暑期多校day8

Preface 妈的多校都是些什么题啊,一场比赛后三小时全程啥也干不了只能划划水,最后开榜就看手速排名,给他唐完了 这场开场和前期久违地顺利,按难度开了三道签到后队里讨论了下秒出了A的正解 我爬上去摸了会虽然nt错误频发WA了两发,但后面还是成功抢到了A题的一血,同时徐神和祁神坐在下面的时候把E题规 ......
day8 day 国庆 2023 2020

【题解】洛谷#P7073 [CSP-J2020] 表达式

【题解】洛谷#P7073 [CSP-J2020] 表达式 Description 给定一个逻辑表达式和其中每一个操作数的初始取值后,再取反某一个操作数的值时,求出原表达式的值。表达式将采用后缀表达式的方式输入。 Solution 根据题目可得,当取反一个操作数的值时,整个表达式大体只有变与不变两种情 ......
题解 表达式 CSP-J 7073 2020

矩阵的乘法运算与css的3d变换(transform)

theme: qklhk-chocolate 引言:你有没好奇过,在一个使用了transform变换的元素上使用window.getComputedStyle(htmlElement)['transform'] 查询出来的值代表什么? 为什么硬件加速要使用transform,以及为什么硬件加速会快? ......
乘法 矩阵 transform css

2020 ICPC 南京 EFKL

2020-2021 ACM-ICPC, Asia Nanjing Regional Contest (XXI Open Cup, Grand Prix of Nanjing) E. Evil Coordinate 思路:因为如果给定了起点和初始走法,其实我们的终点是一定确定的。我们不妨让上下左右的连 ......
2020 ICPC EFKL

矩阵成真!Pytorch最新工具mm,3D可视化矩阵乘法、Transformer注意力

前言 Pytorch团队推出的最新3D可视化最新工具mm,能够将矩阵乘法模拟世界还原。 本文转载自新智元 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】 ......
矩阵 乘法 Transformer 注意力 Pytorch