train

《Span-Based Joint Entity and Relation Extraction with Transformer Pre-Training》阅读笔记

代码 原文地址 预备知识: 1.什么是束搜索算法(beam search)? beam search是一种用于许多自然语言处理和语音识别模型的算法,作为最终决策层,用于在给定目标变量(如最大概率或下一个输出字符)的情况下选择最佳输出。 2.什么是条件随机场(Conditional Random Fi ......

C. Training Before the Olympiad

原题链接 题解 事实1.两个数合并后的数一定是偶数 事实2.如果没有发生奇数和偶数合并,那么最终的结果一定是所有数的和 事实3.每发生一次奇数和偶数合并,最后的结果会减一 总结 综上所述,Masha会尽量选择同奇或同偶合并,但在有同奇的情况下,会优先选择同奇,因为合并会产生偶数,且Olya需要用到奇 ......
Training Olympiad Before the

CF1916C Training Before the Olympiad

思路 首先,我们可以考虑两个人会怎么操作,如果是选择了两个偶数和两个奇数,那么答案不会减小,如果选择了一个奇数一个偶数,那么答案会减小一。 所以想使答案大的人应该尽量选择前一种方案,想使答案小的人应该尽量选择后一种方案。 但这还不是最优的,想使答案大的人在可以选择两个奇数时,绝对不会选择两个偶数,因 ......
Training Olympiad Before 1916C 1916

InstructGPT《InstructGPT: Training language models to follow instructions with human feedback》解读

背景 GPT-3 虽然在各大 NLP 任务以及文本生成的能力上令人惊艳,但是他仍然还是会生成一些带有偏见的,不真实的,有害的造成负面社会影响的信息,而且很多时候,他并不按人类喜欢的表达方式去说话。在这个背景下,OpenAI 提出了一个概念“Alignment”,意思是模型输出与人类真实意图对齐,符合 ......

GPT-1论文《Improving Language Understanding by Generative Pre-Training》解读

背景 GPT-1 采用了两阶段训练的方式: 1. 第一阶段 pre-training,在海量文本上训练,无需label,根据前k-1个词预测第k个单词是什么,第一阶段的训练让模型拥有了很多的先验知识,模型具有非常强的泛化性 2. 第二阶段在特定任务上fine-tuning,让模型能适应不同的任务,提 ......

Open-World Object Manipulation using Pre-trained Vision-Language Models

概述 提出MOO: Manipulation of Open-World Objects 用预训练的VLM在图像中标记instruction的object的坐标,传入policy进行控制,可以zero-shot泛化到novel object,还支持手指、点击输入指令。 问题 机器人泛化到训练中没有见 ......

【论文阅读笔记】【多模态-Vision-Language Pretraining】 BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation

BLIP ICML 2022 (Spotlight) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 在视觉-语言预训练(VLP)中,如何更加高效地利用充斥着噪声的海量图文对数据,提升预训练效果? 如何设计模型,使得预训练后的模型在理解(understanding-based)任务 ......

A fast and simple algorithm for training neural probabilistic language models

目录概Noise contrastive estimation Mnih A. and Teh Y. W. A fast and simple algorithm for training neural probabilistic language models. ICML, 2012. 概 NCE ......

手搭train版的openstack

准备两台虚拟机分别作为controller节点和compute节点 主机 硬件 IP 虚拟机网卡 controller 2cpu+4GB内存+60GB硬盘 192.168.238.30 192.168.108.30 NAT模式 仅主机模式 compute 2cpu+4GB内存+50GB硬盘 192. ......
openstack train

CentOS7离线部署OpenStack Train版本

CentOS7离线部署OpenStack Train版本CentOSOpenStack 一、在线安装OpenStack 在线安装的过程中,把下载的所有包都保存下来,然后导入到离线环境中再进行安装。 在虚拟机里装了一个CentOS 7系统,使用的CentOS 7 内核版本是:3.10.0-1160.e ......
OpenStack CentOS7 版本 CentOS Train

CentOS7离线部署OpenStack Train版本

CentOS7离线部署OpenStack Train版本CentOSOpenStack 一、在线安装OpenStack 在线安装的过程中,把下载的所有包都保存下来,然后导入到离线环境中再进行安装。 在虚拟机里装了一个CentOS 7系统,使用的CentOS 7 内核版本是:3.10.0-1160.e ......
OpenStack CentOS7 版本 CentOS Train

神经网络优化篇:详解训练,验证,测试集(Train / Dev / Test sets)

训练,验证,测试集 在配置训练、验证和测试数据集的过程中做出正确决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,需要做出很多决策,例如: 神经网络分多少层 每层含有多少个隐藏单元 学习速率是多少 各层采用哪些激活函数 创建新应用的过程中,不可能从一开始就准确预测出这些信息和其他超级参数 ......
神经网络 神经 Train 网络 Test

【论文阅读笔记】【多模态-Referring & Grounding】 Grounded Language-Image Pre-training

GLIP CVPR 2022 (Oral, Best Paper Finalist) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 如何将视觉-语言预训练技术应用在以目标检测为代表的 fine-grained image understanding 上面? 如何在增加训练数据的同 ......

GLIP:Grounded Language-Image Pre-training

Grounded Language-Image Pre-training 目录Grounded Language-Image Pre-training简介摘要Introduction统一的损失函数方法总结参考资料 GLIPv1: Grounded Language-Image Pre-trainin ......

同一个train.py,没改任何代码,一会能跑,一会不能跑

问题描述 跑一个模型,加载预训练权重,只进行推理,没有修改任何代码,刚开始直接运行可以得到推理结果,然后再跑,程序又卡住了;然后我使用调试,一会能跑,一会跑到第五六个batch时,又卡住了。 解决方法 修改dataloader的num_workers。我程序原来workers设为的8,后面改为4就可 ......
代码 train py

yoloV5训练代码train.py参数解析

一,前言 yolov5项目代码中,train.py是用于模型训练的代码,是yolov5中最为核心的代码之一,而代码中的训练参数则是核心中的核心,只有学会了各种训练参数的真正含义,才能使用yolov5进行最基本的训练。 本文讲解的yolov5版本为目前最新的V7.0yolov5官方GitHub地址:  ......
参数 代码 yoloV5 yoloV train

Leveraging Pre-trained Large Language Models to Construct and UtilizeWorld Models for Model-based Task Planning

0 Abstract 将LLM直接作为planner的方法实用性不足的几个原因:plan的正确率有限,严重依赖于feedback(与sim或者真实环境的交互),利用人类feedback的效率低下。 作者在两个IPC域和一个Household域证实了GPT-4可以用来生成高质量的PDDL模型(执行超过 ......

Misc_XCTF_WriteUp | Training-Stegano-1

题目 提示:这是我能想到的最基础的图片隐写术 题目: 分析 文件属性没有特别的东西。 这么小的图片用 StegSolve 也看不见啥,用 010 editor 打开看看: 有一段文本,大意是:“看看十六进制编辑显示了什么:passwd:steganoI” 将 steganoI 作为 flag 提交, ......

TensorFlow-深度学习预训练模型的使用方法讲解(TensorFlow-Explanation on how to use deep learning pre-trained models)

在运用深度学习模型时,掌握运用预训练模型的方法是必不可少的一步。为什么要使用与训练的模型,原因归纳如下: (1)使用大量高质量的数据(如 ImageNet 是普林斯顿大学与斯坦福大学所主导的项目)又加上设计较复杂的模型结构(如ResNet模型高达150层)设计出来的模型,准确率会大大提高。 (2)可 ......

Web_XCTF_WriteUp | Training-WWW-Robots

题目 分析 标题大致翻译: 训练 WWW 网络爬虫。 场景内部文段大致翻译: 在这个小小的训练挑战中,您将学习 Robots_exclusion_standard(网络爬虫排除标准)。 robots.txt 文件用于网络爬虫检查它们是否被允许抓取和索引您的网站或仅部分网站。 有时,这些文件揭示了目录 ......

ElasticSearch之cat trained model API

命令样例如下: curl -X GET "https://localhost:9200/_cat/ml/trained_models?v=true&pretty" --cacert $ES_HOME/config/certs/http_ca.crt -u "elastic:ohCxPH=QBE+s5 ......
ElasticSearch trained model API cat

Can Pre-Trained Text-to-Image Models Generate Visual Goals for Reinforcement Learning

概述 Learning form the Void (LfVoid) 根据给定的language instruction对observation进行appearance-based and structure-based修改得到goal images,为RL提供奖励信号。提升了example-bas ......

【论文阅读】Improving language understanding by generative pre-training

原始题目:Improving language understanding by generative pre-training 中文翻译:通过生成预训练提高语言理解能力 发表时间:2018年 平台:Preprint 文章链接:https://www.mikecaptain.com/resource ......

[ARC123E] Training

多测,求值 \[\sum_{i=1}^{n}\Big[a+\lfloor\frac{i}{b}\rfloor=c+\lfloor\frac{i}{d}\rfloor\Big] \]\(1\le T\le 2\times 10^5\),\(1\le n\le 10^9\),\(1\le a,b,c,d ......
Training 123E ARC 123

基于时间频率一致性对时间序列进行自监督对比预训练《Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency》(时序、时频一致性、对比学习)

2023年11月10日,今天看一篇论文,现在17:34,说实话,想摆烂休息,不想看,可还是要看,拴Q。 论文:Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency 或者是:Sel ......
一致性 时间序列 时间 时序 Time

train.cs.nctu.edu.tw: ret2libc

来源 本题来自ctf wiki中ret2libc后的一道练习题 检查保护 只开启了 NX 保护 ida查看 跟前面的shellcode的课后练习类似,泄露了/bin/sh地址和puts函数的地址 gdb调试 断点下在main,结合ida中 v4 = esp+1ch 得到偏移 为 1ch exp fr ......
ret2libc train 2libc nctu libc

rasa train nlu详解:1.1-train_nlu()函数

本文使用《使用ResponseSelector实现校园招聘FAQ机器人》中的例子,主要详解介绍train_nlu()函数中变量的具体值。 一.rasa/model_training.py/train_nlu()函数 train_nlu()函数实现,如下所示: def train_nlu( confi ......
train 函数 nlu train_nlu rasa

rasa train nlu详解:1.2-_train_graph()函数

本文使用《使用ResponseSelector实现校园招聘FAQ机器人》中的例子,主要详解介绍_train_graph()函数中变量的具体值。 一.rasa/model_training.py/_train_graph()函数 _train_graph()函数实现,如下所示: def _train_ ......
train train_graph 函数 graph rasa

train_logReg_param.o:train_logReg_param.cc:(.text+0x3407): more undefined references to `std::__throw_out_of_range_fmt(char const*, ...)' follow

001、make 编译 报错:train_logReg_param.o:train_logReg_param.cc:(.text+0x3407): more undefined references to `std::__throw_out_of_range_fmt(char const*, ... ......

机器学习从入门到放弃:硬train一发手写数字识别

一、前言 前面我们了解了关于机器学习使用到的数学基础和内部原理,这一次就来动手使用 pytorch 来实现一个简单的神经网络工程,用来识别手写数字的项目。自己动手后会发现,框架里已经帮你实现了大部分的数学底层逻辑,例如数据集的预处理,梯度下降等等,所以只要你有足够棒的idea,你大部分都能相对轻松去 ......
机器 数字 train
共113篇  :1/4页 首页上一页1下一页尾页