misc_xctf_writeup training-stegano training

《Span-Based Joint Entity and Relation Extraction with Transformer Pre-Training》阅读笔记

代码 原文地址 预备知识: 1.什么是束搜索算法(beam search)? beam search是一种用于许多自然语言处理和语音识别模型的算法,作为最终决策层,用于在给定目标变量(如最大概率或下一个输出字符)的情况下选择最佳输出。 2.什么是条件随机场(Conditional Random Fi ......

C. Training Before the Olympiad

原题链接 题解 事实1.两个数合并后的数一定是偶数 事实2.如果没有发生奇数和偶数合并,那么最终的结果一定是所有数的和 事实3.每发生一次奇数和偶数合并,最后的结果会减一 总结 综上所述,Masha会尽量选择同奇或同偶合并,但在有同奇的情况下,会优先选择同奇,因为合并会产生偶数,且Olya需要用到奇 ......
Training Olympiad Before the

CF1916C Training Before the Olympiad

思路 首先,我们可以考虑两个人会怎么操作,如果是选择了两个偶数和两个奇数,那么答案不会减小,如果选择了一个奇数一个偶数,那么答案会减小一。 所以想使答案大的人应该尽量选择前一种方案,想使答案小的人应该尽量选择后一种方案。 但这还不是最优的,想使答案大的人在可以选择两个奇数时,绝对不会选择两个偶数,因 ......
Training Olympiad Before 1916C 1916

InstructGPT《InstructGPT: Training language models to follow instructions with human feedback》解读

背景 GPT-3 虽然在各大 NLP 任务以及文本生成的能力上令人惊艳,但是他仍然还是会生成一些带有偏见的,不真实的,有害的造成负面社会影响的信息,而且很多时候,他并不按人类喜欢的表达方式去说话。在这个背景下,OpenAI 提出了一个概念“Alignment”,意思是模型输出与人类真实意图对齐,符合 ......

GPT-1论文《Improving Language Understanding by Generative Pre-Training》解读

背景 GPT-1 采用了两阶段训练的方式: 1. 第一阶段 pre-training,在海量文本上训练,无需label,根据前k-1个词预测第k个单词是什么,第一阶段的训练让模型拥有了很多的先验知识,模型具有非常强的泛化性 2. 第二阶段在特定任务上fine-tuning,让模型能适应不同的任务,提 ......

Open-World Object Manipulation using Pre-trained Vision-Language Models

概述 提出MOO: Manipulation of Open-World Objects 用预训练的VLM在图像中标记instruction的object的坐标,传入policy进行控制,可以zero-shot泛化到novel object,还支持手指、点击输入指令。 问题 机器人泛化到训练中没有见 ......

【论文阅读笔记】【多模态-Vision-Language Pretraining】 BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation

BLIP ICML 2022 (Spotlight) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 在视觉-语言预训练(VLP)中,如何更加高效地利用充斥着噪声的海量图文对数据,提升预训练效果? 如何设计模型,使得预训练后的模型在理解(understanding-based)任务 ......

A fast and simple algorithm for training neural probabilistic language models

目录概Noise contrastive estimation Mnih A. and Teh Y. W. A fast and simple algorithm for training neural probabilistic language models. ICML, 2012. 概 NCE ......

手搭train版的openstack

准备两台虚拟机分别作为controller节点和compute节点 主机 硬件 IP 虚拟机网卡 controller 2cpu+4GB内存+60GB硬盘 192.168.238.30 192.168.108.30 NAT模式 仅主机模式 compute 2cpu+4GB内存+50GB硬盘 192. ......
openstack train

CentOS7离线部署OpenStack Train版本

CentOS7离线部署OpenStack Train版本CentOSOpenStack 一、在线安装OpenStack 在线安装的过程中,把下载的所有包都保存下来,然后导入到离线环境中再进行安装。 在虚拟机里装了一个CentOS 7系统,使用的CentOS 7 内核版本是:3.10.0-1160.e ......
OpenStack CentOS7 版本 CentOS Train

CentOS7离线部署OpenStack Train版本

CentOS7离线部署OpenStack Train版本CentOSOpenStack 一、在线安装OpenStack 在线安装的过程中,把下载的所有包都保存下来,然后导入到离线环境中再进行安装。 在虚拟机里装了一个CentOS 7系统,使用的CentOS 7 内核版本是:3.10.0-1160.e ......
OpenStack CentOS7 版本 CentOS Train

Misc_XCTF_WriteUp | [简单] 凯撒大帝在培根里藏了什么

题目 提示: 究极简单题(认真 格式为flag{你所得到的大写字符串} 题目: 分析 根据提示,该题用到凯撒密码和移位密码。 题目中字符串非 A 即 B,先用培根密码的方式解密: 之后不断更换偏移量对培根密码解密的结果进行凯撒密码解密。当偏移量为 6 时得到的字符串可读: 按格式提交 flag。 F ......
培根 Misc_XCTF_WriteUp 大帝 WriteUp Misc

Misc_XCTF_WriteUp | 适合作为桌面

题目 分析 查看图片不同通道,在 Red plane 1 和 Green plane 1 通道发现同样的二维码: 扫描二维码,得到一串十六进制字符串: 转换为文本,发现存在 flag 1.py 1.pyt 字样,其中 .py 是 Python 文件格式,.pyt 是 Python 工具箱文件: 将 ......
Misc_XCTF_WriteUp 桌面 WriteUp Misc XCTF

神经网络优化篇:详解训练,验证,测试集(Train / Dev / Test sets)

训练,验证,测试集 在配置训练、验证和测试数据集的过程中做出正确决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,需要做出很多决策,例如: 神经网络分多少层 每层含有多少个隐藏单元 学习速率是多少 各层采用哪些激活函数 创建新应用的过程中,不可能从一开始就准确预测出这些信息和其他超级参数 ......
神经网络 神经 Train 网络 Test

【论文阅读笔记】【多模态-Referring & Grounding】 Grounded Language-Image Pre-training

GLIP CVPR 2022 (Oral, Best Paper Finalist) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 如何将视觉-语言预训练技术应用在以目标检测为代表的 fine-grained image understanding 上面? 如何在增加训练数据的同 ......

Misc_XCTF_WriteUp | SimpleRAR

题目 分析 打开压缩包提示文件头损坏: 查看并分析十六进制文件。 标记块(MARK_HEAD) 52 61:【0x6152-头部 CRC 校验值(固定)-2 字节】 72:【0x72-块类型(固定)-1 字节】表示标记块 21 1A:【0x1A21-阻止标志(固定)-2 字节】 07 00:【0x0 ......

Misc_XCTF_WriteUp | a_good_idea

题目 分析 压缩包开出只汤姆: 一番检查后在十六进制文件末尾发现 zip 压缩包文件头: 更改文件后缀名为 zip,在压缩包里开出两只汤姆和一个文本文件。 txt 内容:“try to find the secret of pixels”,直译为:“试着找出像素的秘密”。 根据这条提示我们打开 St ......

GLIP:Grounded Language-Image Pre-training

Grounded Language-Image Pre-training 目录Grounded Language-Image Pre-training简介摘要Introduction统一的损失函数方法总结参考资料 GLIPv1: Grounded Language-Image Pre-trainin ......

Misc_XCTF_WriteUp | base64stego

题目 提示: 菜狗经过几天的学习,终于发现了如来十三掌最后一步的精髓 题目: 分析 尝试打开压缩包,发现需要密码。但准备爆破的时候被提示 zip 未被加密: 猜测是 zip 伪加密,打开十六进制文件,发现数据区的全局方式位标记第 2/4 个数是偶数 0,而目录区的第 2/4 是奇数 9: 将 9 改 ......
Misc_XCTF_WriteUp WriteUp stego Misc XCTF

同一个train.py,没改任何代码,一会能跑,一会不能跑

问题描述 跑一个模型,加载预训练权重,只进行推理,没有修改任何代码,刚开始直接运行可以得到推理结果,然后再跑,程序又卡住了;然后我使用调试,一会能跑,一会跑到第五六个batch时,又卡住了。 解决方法 修改dataloader的num_workers。我程序原来workers设为的8,后面改为4就可 ......
代码 train py

yoloV5训练代码train.py参数解析

一,前言 yolov5项目代码中,train.py是用于模型训练的代码,是yolov5中最为核心的代码之一,而代码中的训练参数则是核心中的核心,只有学会了各种训练参数的真正含义,才能使用yolov5进行最基本的训练。 本文讲解的yolov5版本为目前最新的V7.0yolov5官方GitHub地址:  ......
参数 代码 yoloV5 yoloV train

Misc_XCTF_WriteUp | reverseMe

题目 分析 把图片左右反转: 提取文字,得到 Flag。 Flag flag{4f7548f93c7bef1dc6a0542cf04e796e} 参考 图片转文字在线-图片文字提取-网页OCR文字识别-白描网页版 ......

Misc_XCTF_WriteUp | János-the-Ripper

题目 分析 用记事本打开文件,看见开头有明显的 PK,猜测是 zip 压缩包,且包内有 flag 的 txt 文件。 用 010 Editor 打开文件,另存为 zip 压缩文件。 解压文件,发现需要密码。用 Ziperello 进行爆破: 得到密码: 打开压缩包,得到 flag。 Flag fla ......

Misc_XCTF_WriteUp | can_has_stdio?

题目 分析 按海星的组成符号来看,应该是 brainfuck 语言。 翻译语言,得到 flag: 我觉得海星 Flag flag{esolangs_for_fun_and_profit} 参考 CTF中那些脑洞大开的编码和加密-jack_Meng-博客园 Brainfuck_Ook! Obfusca ......

Misc_XCTF_WriteUp | Test-flag-please-ignore

题目 分析 因为题目的文件没有扩展名,刚开始还以为里面的编码是什么十六进制文件,查了一圈没找到对应的文件头。 重新审视字符串,发现字母最大到 f,尝试用十六进制解码,得到 flag: Flag flag{hello_world} ......

Leveraging Pre-trained Large Language Models to Construct and UtilizeWorld Models for Model-based Task Planning

0 Abstract 将LLM直接作为planner的方法实用性不足的几个原因:plan的正确率有限,严重依赖于feedback(与sim或者真实环境的交互),利用人类feedback的效率低下。 作者在两个IPC域和一个Household域证实了GPT-4可以用来生成高质量的PDDL模型(执行超过 ......

Misc_XCTF_WriteUp | Training-Stegano-1

题目 提示:这是我能想到的最基础的图片隐写术 题目: 分析 文件属性没有特别的东西。 这么小的图片用 StegSolve 也看不见啥,用 010 editor 打开看看: 有一段文本,大意是:“看看十六进制编辑显示了什么:passwd:steganoI” 将 steganoI 作为 flag 提交, ......

TensorFlow-深度学习预训练模型的使用方法讲解(TensorFlow-Explanation on how to use deep learning pre-trained models)

在运用深度学习模型时,掌握运用预训练模型的方法是必不可少的一步。为什么要使用与训练的模型,原因归纳如下: (1)使用大量高质量的数据(如 ImageNet 是普林斯顿大学与斯坦福大学所主导的项目)又加上设计较复杂的模型结构(如ResNet模型高达150层)设计出来的模型,准确率会大大提高。 (2)可 ......

Web_XCTF_WriteUp | Training-WWW-Robots

题目 分析 标题大致翻译: 训练 WWW 网络爬虫。 场景内部文段大致翻译: 在这个小小的训练挑战中,您将学习 Robots_exclusion_standard(网络爬虫排除标准)。 robots.txt 文件用于网络爬虫检查它们是否被允许抓取和索引您的网站或仅部分网站。 有时,这些文件揭示了目录 ......

ElasticSearch之cat trained model API

命令样例如下: curl -X GET "https://localhost:9200/_cat/ml/trained_models?v=true&pretty" --cacert $ES_HOME/config/certs/http_ca.crt -u "elastic:ohCxPH=QBE+s5 ......
ElasticSearch trained model API cat
共127篇  :1/5页 首页上一页1下一页尾页