training-www-robots web_xctf_writeup training

《Span-Based Joint Entity and Relation Extraction with Transformer Pre-Training》阅读笔记

代码 原文地址 预备知识: 1.什么是束搜索算法(beam search)? beam search是一种用于许多自然语言处理和语音识别模型的算法,作为最终决策层,用于在给定目标变量(如最大概率或下一个输出字符)的情况下选择最佳输出。 2.什么是条件随机场(Conditional Random Fi ......

C. Training Before the Olympiad

原题链接 题解 事实1.两个数合并后的数一定是偶数 事实2.如果没有发生奇数和偶数合并,那么最终的结果一定是所有数的和 事实3.每发生一次奇数和偶数合并,最后的结果会减一 总结 综上所述,Masha会尽量选择同奇或同偶合并,但在有同奇的情况下,会优先选择同奇,因为合并会产生偶数,且Olya需要用到奇 ......
Training Olympiad Before the

CF1916C Training Before the Olympiad

思路 首先,我们可以考虑两个人会怎么操作,如果是选择了两个偶数和两个奇数,那么答案不会减小,如果选择了一个奇数一个偶数,那么答案会减小一。 所以想使答案大的人应该尽量选择前一种方案,想使答案小的人应该尽量选择后一种方案。 但这还不是最优的,想使答案大的人在可以选择两个奇数时,绝对不会选择两个偶数,因 ......
Training Olympiad Before 1916C 1916

InstructGPT《InstructGPT: Training language models to follow instructions with human feedback》解读

背景 GPT-3 虽然在各大 NLP 任务以及文本生成的能力上令人惊艳,但是他仍然还是会生成一些带有偏见的,不真实的,有害的造成负面社会影响的信息,而且很多时候,他并不按人类喜欢的表达方式去说话。在这个背景下,OpenAI 提出了一个概念“Alignment”,意思是模型输出与人类真实意图对齐,符合 ......

GPT-1论文《Improving Language Understanding by Generative Pre-Training》解读

背景 GPT-1 采用了两阶段训练的方式: 1. 第一阶段 pre-training,在海量文本上训练,无需label,根据前k-1个词预测第k个单词是什么,第一阶段的训练让模型拥有了很多的先验知识,模型具有非常强的泛化性 2. 第二阶段在特定任务上fine-tuning,让模型能适应不同的任务,提 ......

Open-World Object Manipulation using Pre-trained Vision-Language Models

概述 提出MOO: Manipulation of Open-World Objects 用预训练的VLM在图像中标记instruction的object的坐标,传入policy进行控制,可以zero-shot泛化到novel object,还支持手指、点击输入指令。 问题 机器人泛化到训练中没有见 ......

【论文阅读笔记】【多模态-Vision-Language Pretraining】 BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation

BLIP ICML 2022 (Spotlight) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 在视觉-语言预训练(VLP)中,如何更加高效地利用充斥着噪声的海量图文对数据,提升预训练效果? 如何设计模型,使得预训练后的模型在理解(understanding-based)任务 ......

A fast and simple algorithm for training neural probabilistic language models

目录概Noise contrastive estimation Mnih A. and Teh Y. W. A fast and simple algorithm for training neural probabilistic language models. ICML, 2012. 概 NCE ......

手搭train版的openstack

准备两台虚拟机分别作为controller节点和compute节点 主机 硬件 IP 虚拟机网卡 controller 2cpu+4GB内存+60GB硬盘 192.168.238.30 192.168.108.30 NAT模式 仅主机模式 compute 2cpu+4GB内存+50GB硬盘 192. ......
openstack train

CentOS7离线部署OpenStack Train版本

CentOS7离线部署OpenStack Train版本CentOSOpenStack 一、在线安装OpenStack 在线安装的过程中,把下载的所有包都保存下来,然后导入到离线环境中再进行安装。 在虚拟机里装了一个CentOS 7系统,使用的CentOS 7 内核版本是:3.10.0-1160.e ......
OpenStack CentOS7 版本 CentOS Train

CentOS7离线部署OpenStack Train版本

CentOS7离线部署OpenStack Train版本CentOSOpenStack 一、在线安装OpenStack 在线安装的过程中,把下载的所有包都保存下来,然后导入到离线环境中再进行安装。 在虚拟机里装了一个CentOS 7系统,使用的CentOS 7 内核版本是:3.10.0-1160.e ......
OpenStack CentOS7 版本 CentOS Train

Web_XCTF_WriteUp | Web_php_unserialize

题目 分析 浅读一下 php 代码: <?php class Demo { // Demo类 private $file = 'index.php'; // 私有变量file赋为字符串index.php public function __construct($file) { // 构建公有函数__ ......

神经网络优化篇:详解训练,验证,测试集(Train / Dev / Test sets)

训练,验证,测试集 在配置训练、验证和测试数据集的过程中做出正确决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,需要做出很多决策,例如: 神经网络分多少层 每层含有多少个隐藏单元 学习速率是多少 各层采用哪些激活函数 创建新应用的过程中,不可能从一开始就准确预测出这些信息和其他超级参数 ......
神经网络 神经 Train 网络 Test

【论文阅读笔记】【多模态-Referring & Grounding】 Grounded Language-Image Pre-training

GLIP CVPR 2022 (Oral, Best Paper Finalist) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 如何将视觉-语言预训练技术应用在以目标检测为代表的 fine-grained image understanding 上面? 如何在增加训练数据的同 ......

GLIP:Grounded Language-Image Pre-training

Grounded Language-Image Pre-training 目录Grounded Language-Image Pre-training简介摘要Introduction统一的损失函数方法总结参考资料 GLIPv1: Grounded Language-Image Pre-trainin ......

Web_XCTF_WriteUp | upload1

题目 分析 根据题目可知该题考查文件上传漏洞。 用 BurpSuite 的内置浏览器打开环境。 新建记事本编写一句话木马脚本: <?php @eval($_POST['r00ts']);?> 保存为 jpg 格式。 打开拦截,上传脚本。拦截到数据包: 将脚本后缀名更改为 php 后放行: 打开中国蚁 ......
Web_XCTF_WriteUp WriteUp upload1 upload XCTF

Web_XCTF_WriteUp | Web_php_include

题目 分析 对 php 代码进行分析: <?php // php开头 show_source(__FILE__); // 对当前源文件进行高亮显示 echo $_GET['hello']; // 收集get表单中hello的数据输出 $page=$_GET['page']; // 将get表单中pa ......

同一个train.py,没改任何代码,一会能跑,一会不能跑

问题描述 跑一个模型,加载预训练权重,只进行推理,没有修改任何代码,刚开始直接运行可以得到推理结果,然后再跑,程序又卡住了;然后我使用调试,一会能跑,一会跑到第五六个batch时,又卡住了。 解决方法 修改dataloader的num_workers。我程序原来workers设为的8,后面改为4就可 ......
代码 train py

yoloV5训练代码train.py参数解析

一,前言 yolov5项目代码中,train.py是用于模型训练的代码,是yolov5中最为核心的代码之一,而代码中的训练参数则是核心中的核心,只有学会了各种训练参数的真正含义,才能使用yolov5进行最基本的训练。 本文讲解的yolov5版本为目前最新的V7.0yolov5官方GitHub地址:  ......
参数 代码 yoloV5 yoloV train

Web_XCTF_WriteUp | unserialize3

题目 分析 根据题目指向,这题是反序列化漏洞。 分析代码: class xctf{ public $flag = '111'; // 变量flag初始化为111 public function __wakeup(){ // “__wakeup”:PHP魔术方法,在序列化后立即被调用 exit('ba ......

Leveraging Pre-trained Large Language Models to Construct and UtilizeWorld Models for Model-based Task Planning

0 Abstract 将LLM直接作为planner的方法实用性不足的几个原因:plan的正确率有限,严重依赖于feedback(与sim或者真实环境的交互),利用人类feedback的效率低下。 作者在两个IPC域和一个Household域证实了GPT-4可以用来生成高质量的PDDL模型(执行超过 ......

Misc_XCTF_WriteUp | Training-Stegano-1

题目 提示:这是我能想到的最基础的图片隐写术 题目: 分析 文件属性没有特别的东西。 这么小的图片用 StegSolve 也看不见啥,用 010 editor 打开看看: 有一段文本,大意是:“看看十六进制编辑显示了什么:passwd:steganoI” 将 steganoI 作为 flag 提交, ......

Web_XCTF_WriteUp | ics-06

题目 提示: 云平台报表中心收集了设备管理基础服务的数据,但是数据被删除了,只有一处留下了入侵者的痕迹。 题目: 分析 到处点了点,结果都是跳转回原页面。 打开 F12,发现 html 文档里的按钮大多没有链接到其他目标,除了报表中心: 点进报表中心,发现这个送分题的确认按钮也不会跳转: 查看数据包 ......
Web_XCTF_WriteUp WriteUp XCTF Web ics

Web_XCTF_WriteUp | PHP2

题目 分析 尝试 url 接弱密码和找 php 源码,坐牢 1h。 看了大佬的 WP 才知道 php 源码文件扩展名是 phps,于是将 url 接上 /index.phps 找到源码: 整理一下代码,大致意思是: if("admin" $_GET[id]) { // 如果传入的id值为字符串adm ......
Web_XCTF_WriteUp WriteUp PHP2 XCTF Web

TensorFlow-深度学习预训练模型的使用方法讲解(TensorFlow-Explanation on how to use deep learning pre-trained models)

在运用深度学习模型时,掌握运用预训练模型的方法是必不可少的一步。为什么要使用与训练的模型,原因归纳如下: (1)使用大量高质量的数据(如 ImageNet 是普林斯顿大学与斯坦福大学所主导的项目)又加上设计较复杂的模型结构(如ResNet模型高达150层)设计出来的模型,准确率会大大提高。 (2)可 ......

Web_XCTF_WriteUp | simple_js

题目 提示: 小宁发现了一个网页,但却一直输不对密码。(Flag格式为 Cyberpeace{xxxxxxxxx} ) 题目: 分析 F12 打开查看器找到一串 JS 代码: 分析一下大致意思: function dechiffre(pass_enc){ var pass = "70,65,85,8 ......

Web_XCTF_WriteUp | baby_web

题目 提示: 想想初始页面是哪个 题目: 分析 看到提示首先想到的是把 /1.php 删掉: 但还是回到这里。 打开 F12 再跑了一遍,拦截到三个包: 检查每个包,在 302 状态码包里找到 flag: Flag flag{very_baby_web} 参考 HTTP 状态码-菜鸟教程 ......
Web_XCTF_WriteUp baby_web WriteUp XCTF baby

Web_XCTF_WriteUp | Training-WWW-Robots

题目 分析 标题大致翻译: 训练 WWW 网络爬虫。 场景内部文段大致翻译: 在这个小小的训练挑战中,您将学习 Robots_exclusion_standard(网络爬虫排除标准)。 robots.txt 文件用于网络爬虫检查它们是否被允许抓取和索引您的网站或仅部分网站。 有时,这些文件揭示了目录 ......

Web_XCTF_WriteUp | xff_referer

题目 提示: X老师告诉小宁其实xff和referer是可以伪造的。 题目: 分析 根据提示的内容,了解了一下 xff 和 referer。 xff:X-Forwarded-For,是一个 HTTP 扩展头部。用来表示 HTTP 请求端真实 IP。 格式:X-Forwarded-For: clien ......

ElasticSearch之cat trained model API

命令样例如下: curl -X GET "https://localhost:9200/_cat/ml/trained_models?v=true&pretty" --cacert $ES_HOME/config/certs/http_ca.crt -u "elastic:ohCxPH=QBE+s5 ......
ElasticSearch trained model API cat
共131篇  :1/5页 首页上一页1下一页尾页