domain mixture-of-domain-adapters pre-trained

《Span-Based Joint Entity and Relation Extraction with Transformer Pre-Training》阅读笔记

代码 原文地址 预备知识: 1.什么是束搜索算法(beam search)? beam search是一种用于许多自然语言处理和语音识别模型的算法,作为最终决策层,用于在给定目标变量(如最大概率或下一个输出字符)的情况下选择最佳输出。 2.什么是条件随机场(Conditional Random Fi ......

02-UPF-Power Domain

How do we use power domain 使用UPF至少有一个power domain power domain可以进行嵌套 Defining Power Domain Example Partitioning Guidelines Scope 没有写scope就是当前design Sc ......
UPF-Power Domain Power UPF 02

Thoughts and ideas about how to apply LLMs in specific domains like clinic/law/finance

Applying LLMs in Specific Domains As a university student who has just completed fine-tuning TinyLLaMA-1b with clinical instruction data using the QLo ......
Thoughts specific domains finance clinic

GPT-1论文《Improving Language Understanding by Generative Pre-Training》解读

背景 GPT-1 采用了两阶段训练的方式: 1. 第一阶段 pre-training,在海量文本上训练,无需label,根据前k-1个词预测第k个单词是什么,第一阶段的训练让模型拥有了很多的先验知识,模型具有非常强的泛化性 2. 第二阶段在特定任务上fine-tuning,让模型能适应不同的任务,提 ......

Open-World Object Manipulation using Pre-trained Vision-Language Models

概述 提出MOO: Manipulation of Open-World Objects 用预训练的VLM在图像中标记instruction的object的坐标,传入policy进行控制,可以zero-shot泛化到novel object,还支持手指、点击输入指令。 问题 机器人泛化到训练中没有见 ......

【论文阅读笔记】【多模态-Vision-Language Pretraining】 BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation

BLIP ICML 2022 (Spotlight) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 在视觉-语言预训练(VLP)中,如何更加高效地利用充斥着噪声的海量图文对数据,提升预训练效果? 如何设计模型,使得预训练后的模型在理解(understanding-based)任务 ......

does not have a SELinux domain defined. android 开机启动

[ 46.089306] init: Service mysvc2 does not have a SELinux domain defined. service mysvc1 /system/vendor/bin/app1 class main user root group root syste ......
SELinux defined android domain does

【论文阅读笔记】【多模态-Referring & Grounding】 Grounded Language-Image Pre-training

GLIP CVPR 2022 (Oral, Best Paper Finalist) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 如何将视觉-语言预训练技术应用在以目标检测为代表的 fine-grained image understanding 上面? 如何在增加训练数据的同 ......

GLIP:Grounded Language-Image Pre-training

Grounded Language-Image Pre-training 目录Grounded Language-Image Pre-training简介摘要Introduction统一的损失函数方法总结参考资料 GLIPv1: Grounded Language-Image Pre-trainin ......

本地套接字domain的使用

socket API原本是为网络通讯设计的,但后来在socket的框架上发展出一种IPC机制,就是UNIX Domain Socket。虽然网络socket也可用于同一台主机的进程间通讯(通过loopback地址127.0.0.1),但是UNIX Domain Socket用于IPC更有效率:不需要 ......
套接字 domain

Leveraging Pre-trained Large Language Models to Construct and UtilizeWorld Models for Model-based Task Planning

0 Abstract 将LLM直接作为planner的方法实用性不足的几个原因:plan的正确率有限,严重依赖于feedback(与sim或者真实环境的交互),利用人类feedback的效率低下。 作者在两个IPC域和一个Household域证实了GPT-4可以用来生成高质量的PDDL模型(执行超过 ......

TensorFlow-深度学习预训练模型的使用方法讲解(TensorFlow-Explanation on how to use deep learning pre-trained models)

在运用深度学习模型时,掌握运用预训练模型的方法是必不可少的一步。为什么要使用与训练的模型,原因归纳如下: (1)使用大量高质量的数据(如 ImageNet 是普林斯顿大学与斯坦福大学所主导的项目)又加上设计较复杂的模型结构(如ResNet模型高达150层)设计出来的模型,准确率会大大提高。 (2)可 ......

Java 中的 domain 、 persistent 、Data Access 用法示例

很多开发者 不遵从开发规范 甚至搞不清楚 各种对象之间关系 先说分层 领域层 domain DO 持久层 persistent PO 数据访问 data Access ADO 业务层 business BO 转换层 transfer TO 视图层 view VO 从数据库获取数据 domain 对应 ......
示例 persistent Access domain Java

Can Pre-Trained Text-to-Image Models Generate Visual Goals for Reinforcement Learning

概述 Learning form the Void (LfVoid) 根据给定的language instruction对observation进行appearance-based and structure-based修改得到goal images,为RL提供奖励信号。提升了example-bas ......

Video教程的Domain设计

Domain设计 下面将介绍Video的表设计,和模型定义。 表设计 Videos设计 /// <summary> /// 视频聚合 /// </summary> public class Video : FullAggregateRoot<long, long> { /// <summary> / ......
教程 Domain Video

论文阅读笔记:Revisiting Prototypical Network for Cross Domain Few-Shot Learning

标题:重新审视用于跨领域少样本学习的原型网络 研究背景: 问题背景:原型网络是一种流行的小样本学习方法, 其网络简单而直观,对于小样本学习问题有着较好的表现,尤其是在图像分类等领域。 存在问题:然而,当推广到跨领域的少样本分类任务时,其性能出现了大幅度下降,这严重限制了原型网络的实用性。 研究动机: ......

浅谈DDD(Domain-Driven Design)领域驱动设计思想

当提到领域驱动设计(Domain-Driven Design,DDD)时,我们指的是一种软件开发方法,它强调通过深入理解业务领域来指导软件的设计和开发。DDD的核心思想是将业务领域的知识融入到软件模型中,以便更好地满足业务需求。 以下是DDD的一些关键概念和思想: 1. 领域模型: 核心思想: 领域 ......

weblogic创建domain域

......
weblogic domain

【论文阅读】Improving language understanding by generative pre-training

原始题目:Improving language understanding by generative pre-training 中文翻译:通过生成预训练提高语言理解能力 发表时间:2018年 平台:Preprint 文章链接:https://www.mikecaptain.com/resource ......

基于时间频率一致性对时间序列进行自监督对比预训练《Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency》(时序、时频一致性、对比学习)

2023年11月10日,今天看一篇论文,现在17:34,说实话,想摆烂休息,不想看,可还是要看,拴Q。 论文:Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency 或者是:Sel ......
一致性 时间序列 时间 时序 Time

Domain Drive Design

Domain-driven (DDD) is a business-oriented modeling method or architecture method. Traditional data drivers are generally MVC architecture, which is a ......
Domain Design Drive

2023CVPR_Efficient Frequency Domain-based Transformers for High-Quality Image Deblurring

一. Motivation 1. Transformer在解决全局表现很好,但是复杂度很高,主要体现在QK的乘积: (We note that the scaled dot-product attention computation is actually to estimate the corre ......

[论文阅读] PCL: Proxy-based Contrastive Learning for Domain Generalization

PCL: Proxy-based Contrastive Learning for Domain Generalization abstract 领域泛化是指从不同源领域的集合中训练模型,该模型可以直接泛化到未见过的目标领域的问题。一种有前途的解决方案是对比学习,它试图通过利用不同领域之间的样本对之 ......

GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural Networks

目录概符号说明GraphPrompt代码 Liu Z., Yu X., Fang Y. and Zhang X. GraphPrompt: Unifying pre-training and downstream tasks for graph neural networks. WWW, 2023. ......

GPT-GNN: Generative Pre-Training of Graph Neural Networks

目录概符号说明GPT-GNN代码 Hu Z., Dong Y., Wang K., Chang K. and Sun Y. GPT-GNN: Generative pre-training of graph neural networks. KDD, 2020. 概 比较早的一篇图预训练模型. 符号 ......

Open Domain Question Answering Using Early Fusion of Knowledge Bases and Text

目录概主要内容代码 Sun H., Dhingra B., Zaheer M., Mazaitis K., Salakhutdinov R. and Cohen W. W. Open domain question answering using early fusion of knowledge ......
Answering Knowledge Question Domain Fusion

[论文阅读] Generalizing to Unseen Domains: A Survey on Domain Generalization

Generalizing to Unseen Domains: A Survey on Domain Generalization 代码地址:https://github.com/jindongwang/transferlearning/tree/master/code/DeepDG I. Intr ......

Internet-augmented language models through few-shot prompting for open-domain question answering阅读笔记

Internet-augmented language models through few-shot prompting for open-domain question answering 其实我没怎么正经读过论文,尤其是带实验的,我目前认真读过的(大部头)也就是一些LLM的综述。记录这个文档主 ......

[论文阅读] Exact Feature Distribution Matching for Arbitrary Style Transfer and Domain Generalization

Exact Feature Distribution Matching for Arbitrary Style Transfer and Domain Generalization 论文源码:https://github.com/YBZh/EFDM 1. Introduction 传统的特征分布匹配 ......

【PRC】鲁棒跨域伪标记和对比学习的无监督域自适应NIR-VIS人脸识别 Robust Cross-Domain Pseudo-Labeling and Contrastive Learning for Unsupervised Domain Adaptation NIR-VIS Face Recognition

【该文章为杨学长的文章,膜拜】 探索跨领域数据中的内在关系并学习领域不变表示 由于需要在低光照条件下实现24h的人脸识别,近红外加可见光的(NIR-VIS)人脸识别受到了更多的关注。但是数据标注是一个难点。该文章提出了Robust crossdomain Pseudo-labeling and Co ......
共131篇  :1/5页 首页上一页1下一页尾页