transform mrctf 2020

mrctf2020_easyoverflow

mrctf2020_easyoverflow 控制栈上参数 程序控制流 bamuwe@qianenzhao:~$ checksec mrctf2020_easyoverflow [*] '/home/bamuwe/mrctf2020_easyoverflow' Arch: amd64-64-litt ......
easyoverflow mrctf 2020

CF1506D - Epic Transformation

思路 用优先队列模拟 ac代码 #include <bits/stdc++.h> using namespace std; using i64 = long long; const i64 inf = 8e18; typedef pair<int, int> pii; const int N = 5 ......
Transformation 1506D 1506 Epic CF

CVE-2020-11800

Zabbix Server trapper命令注入漏洞(CVE-2020-11800) Zabbix是由Alexei Vladishev开发的一种网络监控、管理系统,基于Server-Clinet架构。在CVE-2017-2824中,其Server端trapper command功能存在一处代码执行 ......
11800 2020 CVE

【LeetCode 1635. Hopper 公司查询 I】with recursive生成2020年每月的最后一天

题目地址 https://leetcode.cn/problems/hopper-company-queries-i/description/ 代码 -- CTE生成2020年每月的最后一天 WITH RECURSIVE months AS ( SELECT LAST_DAY('2019-12-01 ......
recursive LeetCode Hopper 公司 1635

LLM series: Transformer

🥥 Homepage Dataset, DataLoader, and Transforms Model Traning Model 🥑 Get Started! Import libraries: import torch import torch.nn as nn import torch. ......
Transformer series LLM

2020-2021 ACM-ICPC, Asia Seoul Regional Contest

Preface 这几天里打的最好的一场了,虽然后面写I唐的不行浪费了好多时间 但好在最后都改出来了并且最后Rush出了L题,4h57min绝杀,9题收场 只能说恰好在祁神缺席的这场没有几何,没有被腐乳 而且这场打完发现只有韩文题解没有英文题解,这下直接不用补题了爽歪歪 A. Autonomous V ......
ACM-ICPC Regional Contest Seoul 2020

Learning Dynamic Query Combinations for Transformer-based Object** Detection and Segmentation论文阅读笔记

Motivation & Intro 基于DETR的目标检测范式(语义分割的Maskformer也与之相似)通常会用到一系列固定的query,这些query是图像中目标对象位置和语义的全局先验。如果能够根据图像的语义信息调整query,就可以捕捉特定场景中物体位置和类别的分布。例如,当高级语义显示图 ......

[NLP复习笔记] Transformer

1. Transformer 概述 1.1 整体结构 \(\text{Transformer}\) 主要由 \(\text{Encoder}\) 和 \(\text{Decoder}\) 两个部分组成。\(\text{Encoder}\) 部分有 \(N = 6\) 个相同的层,每层包含 一个 \( ......
Transformer 笔记 NLP

RNN 和 Transformer 复杂度比较

这里假设BatchSize为 1,就是单样本的情况。 原始 RNN 块: (1)单步计算 H,包含两个矩阵向量乘法,和一个激活,复杂度HidSize² (2)一共有SeqLen步,所以整体复杂度SeqLen * HidSize² LSTM 块: (1)单步计算 F I C_hat O,包含八个矩阵向 ......
复杂度 Transformer RNN

挑战Transformer的新架构Mamba解析以及Pytorch复现

今天我们来详细研究这篇论文“Mamba:具有选择性状态空间的线性时间序列建模” Mamba一直在人工智能界掀起波澜,被吹捧为Transformer的潜在竞争对手。到底是什么让Mamba在拥挤的序列建中脱颖而出? 在介绍之前先简要回顾一下现有的模型 Transformer:以其注意力机制而闻名,其中序 ......
Transformer 架构 Pytorch Mamba

[ACTF2020 新生赛]Exec 1

[ACTF2020 新生赛]Exec 1 审题 发现题目有ping功能,猜测是命令执行漏洞。 知识点 linux系统命令 解题 先ping127.0.0.1,观察是否正常执行。 发现正常后执行ls / 命令查看目录。 看到flag目录,使用cat命令抓取flag目录中的内容。 ......
新生 ACTF 2020 Exec

《Span-Based Joint Entity and Relation Extraction with Transformer Pre-Training》阅读笔记

代码 原文地址 预备知识: 1.什么是束搜索算法(beam search)? beam search是一种用于许多自然语言处理和语音识别模型的算法,作为最终决策层,用于在给定目标变量(如最大概率或下一个输出字符)的情况下选择最佳输出。 2.什么是条件随机场(Conditional Random Fi ......

wustctf2020_getshell_2

wustctf2020_getshell_2 shell函数汇编代码 ROPgadgets字符串的获取 call指令的使用 在漏洞函数vulnerable中存在溢出,但是溢出空间很小,只有8个位置(两个栈空间) 在shell函数中存在system函数同时有一串字符串,字符串中有/sh bamuwe@ ......
getshell wustctf 2020

ICLR 2022: Anomaly Transformer论文阅读笔记+代码复现

本论文全名为Anomaly Transformer: Time Series Anomaly Detection with Association Descrepancy(通过关联差异进行时序异常检测),主要提出了一种无监督的异常点检测算法,并在6个benchmarks上测试,获取良好结果。 论文链 ......
Transformer Anomaly 代码 笔记 论文

P6646 [CCO2020] Shopping Plans

神仙套路题。 \(m=1,l=r\) 先将物品按价值排序。 则我们的初始状态一定是一个前缀。 显然我们的后继状态就是将若干个选择向后移动,并且不超过自己后面的。 注意到我们靠后的移动一定比考前的优,所以我们是现移动后面的再移动前面的。 我们记录四元组 \((le,pos,ri,val)\)。 表示前 ......
Shopping P6646 Plans 6646 2020

概率霍夫变换(Progressive Probabilistic Hough Transform)原理详解

概率霍夫变换(Progressive Probabilistic Hough Transform)的原理很简单,如下所述: 1.随机获取边缘图像上的前景点,映射到极坐标系画曲线; 2.当极坐标系里面有交点达到最小投票数,将该点对应x-y坐标系的直线L找出来; 3.搜索边缘图像上前景点,在直线L上的点 ......

5、flink任务中可以使用哪些转换算子(Transformation)

5、flink任务中可以使用哪些转换算子(Transformation) <div id="content_views" class="htmledit_views"> <h1>1、什么是Flink中的转换算子</h1> 在使用 Flink DataStream API 开发流式计算任务时,可以将一 ......
算子 Transformation 任务 flink

bjdctf_2020_router

bjdctf_2020_router pwntools使用 linux系统下命令执行 关键点在case1的这个system函数执行上,dest中是ping命令 我们在system执行函数时,加上;那么前后两个命令都会执行 所以我们拼接strcat中加上;/bin/sh就可以得到shell from ......
bjdctf router 2020

题解 P7165 [COCI2020-2021#1] Papričice

传送门。 题意 有一棵树,可以断掉 \(2\) 条边,会形成三个连通块,求三个连通块中大小最大减最小的最小值。 分析 我们观察两条边之间的关系,分类考虑: 两条边成祖孙关系。 两条边没有祖孙关系。 首先,我们肯定我们的大方向,固一动一(说起来为什么想到了数学题),先固定一条边,再在其他边中取得最适合 ......
题解 P7165 Papri 7165 2020

mrctf2020_shellcode

mrctf2020_shellcode pwntools中shellcode使用与配置 bamuwe@qianenzhao:~$ checksec mrctf2020_shellcode [*] '/home/bamuwe/mrctf2020_shellcode' Arch: amd64-64-li ......
shellcode mrctf 2020

bjdctf_2020_babyrop2

bjdctf_2020_babyrop2 格式化字符漏洞 canary保护机制 64位泄露libc bamuwe@qianenzhao:~$ checksec bjdctf_2020_babyrop2 [*] '/home/bamuwe/bjdctf_2020_babyrop2' Arch: amd ......
babyrop2 babyrop bjdctf 2020

wustctf2020_getshell

wustctf2020_getshell ret2shell 在vulnerable函数中存在溢出漏洞 shell函数中已经预留了后门 溢出->跳转到后门函数 from pwn import * context.log_level = 'debug' elf=ELF('wustctf2020_get ......
getshell wustctf 2020

Visual Transformer 与归纳偏置

开端 ViT(Visual Transformer)是 2020 年 Google 团队提出的将 Transformer 应用在图像分类的模型,但是当训练数据集不够大的时候,ViT 的表现通常比同等大小的 ResNets 要差一些。 为什么呢?寻找答案的过程中,发现了 归纳偏置 这个概念。 在阅读 ......
Transformer Visual

bjdctf_2020_babyrop

bjdctf_2020_babyrop 64位泄露libc vuln的buf变量存在溢出 64位函数传入的参数依次存在寄存器rdi,rsi,rdx (顺序从左到右),返回值存在rax中 bamuwe@qianenzhao:~/done/bjdctf_2020_babyrop$ ROPgadget - ......
babyrop bjdctf 2020

【省选联考2020】树 题解

省选题解第一发~ 【省选联考2020】树 我和这道题还挺有缘分的。 有一次看大佬的省选游记(不知道是哪一年),然后提到有一道是01trie整体加一,当时我就印象深刻,然后在 oiwiki 上看了一下,心想这整体加一也只能从低位到高位维护 01trie 啊,又不能查询最大值,有什么卵用(划掉)。 这是 ......
题解 2020

transformers 系列

Attention 注意力机制【1】-入门篇 注意力机制【2】- CV中的注意力机制 注意力机制【3】-Self Attention 注意力机制【4】-多头注意力机制 注意力机制【5】Scaled Dot-Product Attention 和 mask attention 注意力机制【6】-tra ......
transformers

Pandas - apply、agg、transform 函数

apply:行或列的操作。 agg:聚合,可以传递字典,对多个列使用不同的函数。最终结果可能会合并,与原 DataFrame 列长度不保持一致。 transform:转换,也可以对多个列使用不同的函数。但是最终结果与原 DataFrame 列长度保持一致,不会聚合。 ......
函数 transform Pandas apply agg

pr 2020 导入歌词文件暨制作含字幕的MV

一、制作srt字幕文件 获取互联网上的lrc歌词文件; 将歌词文件用记事本打开,另存为UTF-8(含物料); 将lrc文件转换为srt文件; 可访问以下地址:https://gotranscript.com/subtitle-converter 将srt文件再用记事本打开,另存为UTF-8(含物料) ......
字幕 文件 歌词 2020 pr

Swin Transformer

Swin Transformer 目录Swin Transformer简介VIT的缺陷核心创新总体结构和运作网络细节Patch partitionLinear EmbeddingPatch MergingSwin Block模块W-MSASW-MSAAttention Mask计算成本分析主要优势S ......
Transformer Swin

VIT Vision Transformer

VIT Vision Transformer 目录VIT Vision TransformerViT模型结构图像划分PatchLinear Projection of Flatted PatchesPatch+Position Embedding分类向量和位置向量EncoderMLP Head(全连 ......
Transformer Vision VIT
共790篇  :1/27页 首页上一页1下一页尾页