misc_xctf_writeup training-stegano training

Can Pre-Trained Text-to-Image Models Generate Visual Goals for Reinforcement Learning

概述 Learning form the Void (LfVoid) 根据给定的language instruction对observation进行appearance-based and structure-based修改得到goal images,为RL提供奖励信号。提升了example-bas ......

Misc_XCTF_WriteUp | stegano

题目 提示: 菜狗收到了图后很开心,玩起了pdf 提交格式为flag{xxx},解密字符需小写 题目: 分析 首先查看文件属性,没有发现异常。 查看十六进制文件,文件头正常。 在文件中搜索 “flag” 文本,找到一串 base64 编码: 解码后发现不是 flag: 同时在这个假 flag 前发现 ......
Misc_XCTF_WriteUp WriteUp stegano Misc XCTF

【缺代码】Misc_XCTF_WriteUp | gif

题目 提示: 菜狗截获了一张菜鸡发给菜猫的动态图,却发现另有玄机 题目: (用 MAC 打开应该会有个 gif,但我是 windows 所以只有两个文件夹 (打开后分别是 分析 因为之前开别的包也见到过以 __MACOSX 命名的文件夹,所以查了一下,原来是 MAC OS 第十版压缩后会产生的文件夹 ......
Misc_XCTF_WriteUp WriteUp 代码 Misc XCTF

Misc_XCTF_WriteUp | 坚持60s

题目 (一个 jar 文件 分析 运行了一下,是一个躲绿帽的游戏,掐点过了 60s,什么也没有: ……可恶,被骗了人生的 60s(握拳) 用 010 Editor 打开,发现是 zip 压缩包的文件头(查了一下好像 jar 文件本身就是压缩文件),解压缩得到文件源码: 检查完 image 文件夹中的 ......
Misc_XCTF_WriteUp WriteUp Misc XCTF 60s

【论文阅读】Improving language understanding by generative pre-training

原始题目:Improving language understanding by generative pre-training 中文翻译:通过生成预训练提高语言理解能力 发表时间:2018年 平台:Preprint 文章链接:https://www.mikecaptain.com/resource ......

[ARC123E] Training

多测,求值 \[\sum_{i=1}^{n}\Big[a+\lfloor\frac{i}{b}\rfloor=c+\lfloor\frac{i}{d}\rfloor\Big] \]\(1\le T\le 2\times 10^5\),\(1\le n\le 10^9\),\(1\le a,b,c,d ......
Training 123E ARC 123

基于时间频率一致性对时间序列进行自监督对比预训练《Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency》(时序、时频一致性、对比学习)

2023年11月10日,今天看一篇论文,现在17:34,说实话,想摆烂休息,不想看,可还是要看,拴Q。 论文:Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency 或者是:Sel ......
一致性 时间序列 时间 时序 Time

train.cs.nctu.edu.tw: ret2libc

来源 本题来自ctf wiki中ret2libc后的一道练习题 检查保护 只开启了 NX 保护 ida查看 跟前面的shellcode的课后练习类似,泄露了/bin/sh地址和puts函数的地址 gdb调试 断点下在main,结合ida中 v4 = esp+1ch 得到偏移 为 1ch exp fr ......
ret2libc train 2libc nctu libc

rasa train nlu详解:1.1-train_nlu()函数

本文使用《使用ResponseSelector实现校园招聘FAQ机器人》中的例子,主要详解介绍train_nlu()函数中变量的具体值。 一.rasa/model_training.py/train_nlu()函数 train_nlu()函数实现,如下所示: def train_nlu( confi ......
train 函数 nlu train_nlu rasa

rasa train nlu详解:1.2-_train_graph()函数

本文使用《使用ResponseSelector实现校园招聘FAQ机器人》中的例子,主要详解介绍_train_graph()函数中变量的具体值。 一.rasa/model_training.py/_train_graph()函数 _train_graph()函数实现,如下所示: def _train_ ......
train train_graph 函数 graph rasa

train_logReg_param.o:train_logReg_param.cc:(.text+0x3407): more undefined references to `std::__throw_out_of_range_fmt(char const*, ...)' follow

001、make 编译 报错:train_logReg_param.o:train_logReg_param.cc:(.text+0x3407): more undefined references to `std::__throw_out_of_range_fmt(char const*, ... ......

机器学习从入门到放弃:硬train一发手写数字识别

一、前言 前面我们了解了关于机器学习使用到的数学基础和内部原理,这一次就来动手使用 pytorch 来实现一个简单的神经网络工程,用来识别手写数字的项目。自己动手后会发现,框架里已经帮你实现了大部分的数学底层逻辑,例如数据集的预处理,梯度下降等等,所以只要你有足够棒的idea,你大部分都能相对轻松去 ......
机器 数字 train

【找到 Anchor-based and Anchor-free 性能差距的本质】Adaptive Training Sample Selection (ATSS) 论文精读

原始题目:Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection 中文翻译:通过 自适应训练样本选择 缩小 Anchor-based and Anch ......

GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural Networks

目录概符号说明GraphPrompt代码 Liu Z., Yu X., Fang Y. and Zhang X. GraphPrompt: Unifying pre-training and downstream tasks for graph neural networks. WWW, 2023. ......

GPT-GNN: Generative Pre-Training of Graph Neural Networks

目录概符号说明GPT-GNN代码 Hu Z., Dong Y., Wang K., Chang K. and Sun Y. GPT-GNN: Generative pre-training of graph neural networks. KDD, 2020. 概 比较早的一篇图预训练模型. 符号 ......

CF814B An express train to reveries

思维好题,保证有解大大降低了代码难度。 显然最多有两个位置不同,不然根据鸽巢原理一定有一个序列不同位置超过一个。 然后大力分类讨论: 仅有一个位置不同。此时其余位置与排列相同,否则一定有一个序列不同位置超过一个。然后将没有用过的那个数丢到这个位置即可。 有两个位置不同。此时其余位置显然也与排列相同。 ......
reveries express train 814B 814

学习笔记425—train_test_split 函数介绍

train_test_split 函数介绍 在机器学习中,我们通常将原始数据按照比例分割为“测试集”和“训练集”,从 sklearn.model_selection 中调用train_test_split 函数 简单用法如下: X_train,X_test, y_train, y_test =skl ......
train_test_split 函数 笔记 train split

Training language models to follow instructions with human feedback

郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NeurIPS 2022 ......

train the model model.fit

#train the model history = model.fit(x_train, y_train, batch_size=32, epochs=100, validation_split=0.1, shuffle=True, class_weight=class_weights, call ......
model train the fit

Proj CDeepFuzz Paper Reading: SparseProp: Efficient Sparse Backpropagation for Faster Training of Neural Networks

## Abstract 本文:SparseProp Github: https://github.com/IST-DASLab/sparseprop Task: a back-propagation algo for sparse training data, a fast vectorized i ......

论文解读(CST)《Cycle Self-Training for Domain Adaptation》

Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文信息 论文标题:Cycle Self-Training for Domain Adaptation论文作者:Hong Liu, Jianmin Wang, Mingsheng Long论文来源:2021 论文地址:down ......

Proj CDeepFuzz Paper Reading: PELICAN: Exploiting Backdoors of Naturally Trained Deep Learning Models In Binary Code Analysis

## Abstract 背景: 1. 本文研究的不是被恶意植入的后门,而是products of defects in training 2. 攻击模式: injecting some small fixed input pattern(backdoor) to induce misclassifi ......

Proj CDeepFuzz Paper Reading: Natural attack for pre-trained models of code

## Abstract 背景:目前大多数的adversarial attack method on pre-trained models of code忽略了perturbations should be natural to human judges(naturalness requirement ......

论文解读(MTEM)《Meta-Tsallis-Entropy Minimization: A New Self-Training Approach for Domain Adaptation on Text Classification》

Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文信息 论文标题:Meta-Tsallis-Entropy Minimization: A New Self-Training Approach for Domain Adaptation on Text Classific ......

print ("标签为" + str(train_set_y[:, index]) + ", 这是一个'" + classes[np.squeeze(train_set_y[:, index])].decode("utf-8") + "' 图片.")

这行代码使用 print 函数来输出一条信息。信息的内容是由多个字符串拼接而成的,其中包括 train_set_y 数组中指定索引处的值和 classes 数组中指定索引处的值。 首先,"标签为" 是一个字符串字面量。接下来,str(train_set_y[:, index]) 表示获取 train ......
quot train_set_y index train set

train_set_y_orig = train_set_y_orig.reshape((1, train_set_y_orig.shape[0]))

这行代码的作用是将 train_set_y_orig 数组重新调整为一个新的形状,并将其赋值回 train_set_y_orig 变量。 首先,train_set_y_orig.shape[0] 表示获取 train_set_y_orig 数组的第一维大小。接下来,(1, train_set_y_o ......
train_set_y_orig train orig set reshape

train_dataset = h5py.File('datasets/train_catvnoncat.h5', "r")

这行代码的作用是使用 h5py 库中的 File 函数打开一个 HDF5 文件,并将其赋值给变量 train_dataset。 首先,'datasets/train_catvnoncat.h5' 是 HDF5 文件的路径。接下来,"r" 表示以只读模式打开该文件。最后,h5py.File() 函数打 ......

train_set_x_orig = np.array(train_dataset["train_set_x"][:])

这行代码的作用是将 train_dataset 字典中的 "train_set_x" 键对应的值转换为一个 NumPy 数组,并将其赋值给变量 train_set_x_orig。 首先,train_dataset["train_set_x"] 表示从 train_dataset 字典中获取键为 "t ......

Proj CDeepFuzz Paper Reading: An Extensive Study on Pre-trained Models for Program Understanding and Generation

## Abstract ## 1. Intro ## 2. Background ### 2.1 Program Understanding and Generation Tasks ### 2.2 NL-PL Pre-Trained Models ![](https://img2023.cnblo ......

论文解读(PERL)《PERL: Pivot-based Domain Adaptation for Pre-trained Deep Contextualized Embedding Models》

Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文信息 论文标题:PERL: Pivot-based Domain Adaptation for Pre-trained Deep Contextualized Embedding Models论文作者:Eyal Ben-D ......