augmenting decompiler variable learned

通过时序和上下文对比学习时间序列表征《Time-Series Representation Learning via Temporal and Contextual Contrasting》(时间序列、时序表征、时态和上下文对比、对比学习、自监督学习、半监督学习)

现在是2023年11月14日的22:15,肝不动了,要不先回寝室吧,明天把这篇看了,然后把文档写了。OK,明天的To Do List. 现在是2023年11月15日的10:35,继续。 论文:Time-Series Representation Learning via Temporal and C ......
时间序列 时序 上下文 序列 上下

论文精读:用于少样本目标检测的元调整损失函数和数据增强(Meta-tuning Loss Functions and Data Augmentation for Few-shot Object Detection)

论文链接:Meta-Tuning Loss Functions and Data Augmentation for Few-Shot Object Detection Abstract 现阶段的少样本学习技术可以分为两类:基于微调(fine-tuning)方法和基于元学习(meta-learning ......

Reinforcement Learning Chapter 1

本文参考《Reinforcement Learning:An Introduction(2nd Edition)》Sutton. 强化学习是什么 传统机器学习方法可分为有监督与无监督两类; 有监督学习 > 任务驱动 无监督学习 > 数据驱动 强化学习则可看作机器学习的“第三范式” > 模拟驱动,具体 ......
Reinforcement Learning Chapter

RLHF · PBRL | 发现部分 D4RL tasks 不适合做 offline reward learning 的 benchmark

发现对于很多任务,(只要给出专家轨迹),将 reward 设为 0 或随机数,也能学出很好 policy,证明这些任务不适合用来评测 reward learning 的性能好坏。 ......
benchmark learning offline 部分 reward

TRL(Transformer Reinforcement Learning) PPO Trainer 学习笔记

(1) PPO Trainer TRL支持PPO Trainer通过RL训练语言模型上的任何奖励信号。奖励信号可以来自手工制作的规则、指标或使用奖励模型的偏好数据。要获得完整的示例,请查看examples/notebooks/gpt2-sentiment.ipynb。Trainer很大程度上受到了原 ......

A Learning Method for Feature Correspondence with Outliers读书笔记

A Learning Method for Feature Correspondence with Outliers 2022年 论文地址:A Learning Method for Feature Correspondence with Outliers | IEEE Conference Pub ......

SuperGlue: Learning Feature Matching with Graph Neural Networks论文笔记

SuperGlue: Learning Feature Matching with Graph Neural Networks 源码: github.com/magicleap/SuperGluePretrainedNetwork 背景: 主要解决图像中点之间的对应关系。 主要方法: 上图为该方法的 ......
SuperGlue Learning Matching Networks Feature

Deep Learning:工业自动化和生产效率的变革者

Deep Learning 将改变工业。机器将能够完成那些需要人类智慧的工作。伴随着企业流程数字化和数据收集的发展,Deep Learning 的应用也将增加,使人类和机器之间的合作更加高效。这将彻底改变自动化和生产,实现更高效且更正确的决策流程以及更高的生产力,同时显著降低开发成本。 在我们的播客 ......
生产效率 Learning 效率 工业 Deep

用Variable Handles来替换Unsafe

在JDK9中,包含了一个叫Variable Handles的新功能,下面是该功能的描述: Define a standard means to invoke the equivalents of various java.util.concurrent.atomic and sun.misc.Uns ......
Variable Handles Unsafe

2023CVPR_Spatial-Frequency Mutual Learning for Face Super-Resolution

一. Network:SFMNet 1.网络采用U-Net结构,其中SFMLM-i是不同分辨率的每层结构 2.SPB是空域分支,FRB是频域分支,分别经过FRB和SPB的两个分支信息经过FSIB分支进行信息的融合 3. FRB结构: class FreBlock9(nn.Module): def _ ......

Checkerboard Context Model for Efficient Learned Image Compression

目录AbstractIntroductionPreliminary 初步介绍Variational Image Compression with Hyperprior(超先验变分图像压缩)Autoregressive Context(自回归上下文模型)Parallel Context Modelin ......

Proj. Unknown: Deciding Differential Privacy of Online Algorithms with Multiple Variables

Paper https://arxiv.org/abs/2309.06615 Abstract 背景: 自动机A被称作查分隐私自动机:当对某些D,对任何隐私预算ε>0,该自动机是Dε-differentially private( A DiP automaton is a parametric au ......

分享一个项目:`learning_go_plan9_assembly`, 学习 golang plan9 汇编

作者:张富春(ahfuzhang),转载时请注明作者和引用链接,谢谢! cnblogs博客 zhihu Github 公众号:一本正经的瞎扯 近期在学习 golang plan9 汇编,总算基本做到了手写汇编,并整理了很多笔记。 plan9 汇编的资料少,难学,难用。可能也有想学习汇编的人会遇到与我 ......

Learn DevOps-第一章:Introduction

Introduction DevOps的定义有很多种,AWS对其定义如下: “DevOps is the combination of cutural philosophies, practices, and tools that increases an organization's abilit ......
Introduction DevOps Learn

ELIC: Efficient Learned Image Compression with Unevenly Grouped Space-Channel Contextual Adaptive Coding

abstruct \(\quad\) 受能量压缩表现的启发,提出了不均匀通道情况自适应编码.结合不均匀分组模型和现有上下文模型,获得一种空间通道上下文自适应模型,来提高编码性能,而不影响其运行时间。 \(\quad\)这种模型支持预览解码和渐进解码。 introduction 学习图像压缩中最重要的 ......

【CVPR2023】Learning A Sparse Transformer Network for Effective Image Deraining

论文:https://readpaper.com/paper/4736105248993591297 代码:https://github.com/cschenxiang/DRSformer Transformer 模型通常使用标准的 QKV 三件套进行计算,但是部分来自 K 的 token 与来自 ......

Introduction of Deep Reinforcement Learning

Reading Notes about the book Deep Reinforcement Learning written by Aske Plaat Recently, I have been reading the book Deep Reinforcement Learning writ ......
Reinforcement Introduction Learning Deep of

Tabular Value-Based Reinforcement Learning

Reading Notes about the book Deep Reinforcement Learning written by Aske Plaat Recently, I have been reading the book Deep Reinforcement Learning writ ......

C++多线程——mutex、unique_lock、condition_variable

互斥锁 std::mutex 当涉及到多线程编程时,互斥锁(Mutex)是一种同步机制,用于保护共享资源免受并发访问的影响。以下是一个简单的C++互斥锁示例: #include <iostream> #include <thread> #include <mutex> std::mutex mtx; ......

learn-ue-ui

learn ue ui Created: 2023-10-24T15:29+08:00 Published: 2023-10-25T12:47+08:00 目录IntroWidgetsText Box(Multi-Line) Intro User Interface Development - Un ......
learn-ue-ui learn ue ui

[论文阅读] PCL: Proxy-based Contrastive Learning for Domain Generalization

PCL: Proxy-based Contrastive Learning for Domain Generalization abstract 领域泛化是指从不同源领域的集合中训练模型,该模型可以直接泛化到未见过的目标领域的问题。一种有前途的解决方案是对比学习,它试图通过利用不同领域之间的样本对之 ......

深度学习调参手册(Deep Learning Tuning Playbook)

google-research/tuning_playbook: A playbook for systematically maximizing the performance of deep learning models. (github.com) dkhonker/tuning_playbo ......
深度 Learning Playbook 手册 Tuning

ST-SSL: 用于交通流量预测的时空自监督学习《Spatio-Temporal Self-Supervised Learning for Traffic Flow Prediction》(交通流量预测、自监督)

2023年10月23日,继续论文,好困,想发疯。 论文:Spatio-Temporal Self-Supervised Learning for Traffic Flow Prediction Github:https://github.com/Echo-Ji/ST-SSL AAAI 2023的论文 ......

[论文速览] SimCSE@ Simple Contrastive Learning of Sentence Embeddings

Pre title: SimCSE: Simple Contrastive Learning of Sentence Embeddings accepted: EMNLP 2021 paper: https://arxiv.org/abs/2104.08821 code: https://githu ......

Scikit-learn 的 preprocessing.LabelEncoder函数:标签编码

参考文档:https://pythonjishu.com/sklearn-preprocessing-labelencoder/ 转换类别数据为整数:LabelEncoder 可以将字符串或其他类别型数据转换为整数。例如,如果你有一个特征包含类别 "红色"、"绿色" 和 "蓝色",LabelEnco ......

Paper Reading: Sample and feature selecting based ensemble learning for imbalanced problems

为了克服现有集成方法的缺点,本文提出一种新的混合集成策略——样本和特征选择混合集成学习 SFSHEL。SFSHEL 考虑基于聚类的分层对大多数样本进行欠采样,并采用滑动窗口机制同时生成多样性的特征子集。然后将经过验证训练的权重分配给不同的基学习器,最后 SFSHEL 通过加权投票进行预测。SFSHE... ......

强化学习Q-Learning和DQN算法

1 Q-Learning 强化学习中有state和action的两个重要概念。而Q-Learning算法就是用来得到在state上执行action的未来预期奖励。具体的算法流程如下: 初始化一个Q-table。 在当前状态\(s\)选择一个动作\(a\)。 执行动作\(a\),转移到新的状态\(s' ......
算法 Q-Learning Learning DQN

Learn Git in 30 days—— 第 30 天:分享工作中几个好用的 Git 操作技巧

写的非常好的一个Git系列文章,强烈推荐 原文链接:https://github.com/doggy8088/Learn-Git-in-30-days/tree/master/zh-cn 终于来到了最后一天,这篇文章将分享几个好用的 Git 操作技巧,或许可以节省你不少 Git 版控过程的时间。 如 ......
Git 技巧 Learn 30 days

Internet-augmented language models through few-shot prompting for open-domain question answering阅读笔记

Internet-augmented language models through few-shot prompting for open-domain question answering 其实我没怎么正经读过论文,尤其是带实验的,我目前认真读过的(大部头)也就是一些LLM的综述。记录这个文档主 ......

Robust Graph Representation Learning via Neural Sparsification

目录概符号说明NeuralSparse Zheng C., Zong B., Cheng W., Song D., Ni J., Yu W., Chen H. and Wang W. Robust graph representation learning via neural sparsifica ......