Compression

CF1523C Compression and Expansion

前言 多测不清零,亲人两行泪。 题意 对于一个空的数字串,有两种操作: 删除末尾的 \(n\) 个 \((n \ge 0)\) 元素,并将修改后数字串的最后一个元素加一; 在数字串末尾添加一个数字 \(1\)。 输入 \(n\) 个元素,表示第 \(n\) 次操作后数字串末尾的元素。 思路 首先考虑 ......
Compression Expansion 1523C 1523 and

QARV: Quantization-Aware ResNet VAE for Lossy Image Compression

目录简介创新之处模型结构实验结果 什么是Quantization-Aware量化感知? 简介 该文章基于VAE提出一种新的有损图像压缩方法,起名叫quantization-aware ResNet VAE (QARV). 这种方法集成了测试时间量化和量化感知训练,没有它就无法进行熵编码? 除此之外还 ......

FLAC: Federated Learning with Autoencoder Compression and Convergence Guarantee-2022

目的:减少通信量(成本),例如VGGNet架构具有大约1.38亿个参数(4264 Mb) 方法:具有自动编码器压缩(Autoencoder Compression)且具有收敛保证(Convergence Guarantee);利用冗余信息(the redundant information)和FL的 ......

The Devil Is in the Details: Window-based Attention for Image Compression

目录简介 简介 基于CNN的模型的一个主要缺点是 cNN结构不是为捕捉局部冗余而设计的,尤其是非重复纹理,这严重影响了重建质量。受视觉转换器(ViT)和Swin Transformer最新进展的启发,我们发现将局部感知注意机制与全局相关特征学习相结合可以满足图像压缩的期望。 介绍了一种更简单有效的基 ......

VARIATIONAL IMAGE COMPRESSION WITH A SCALE HYPERPRIOR

abstruct 描述了一个变分自编码器的端到端图像压缩模型。这个模型结合了超先验来捕获潜在表示的空间依赖性,这种超先验涉及到了边信息。并且改模型与底层的自编码器结合联合训练一个复杂的先验。 introduction 熵编码依赖于编码器和解码器都知道的量化表示的先验概率模型(熵模型)。这种压缩潜在表 ......

Joint Autoregressive and Hierarchical Priors for Learned Image Compression

abstruct 最近的图像压缩模型基于自编码器,学习近似可逆的映射(从像素到量化的可逆表示),这些与熵模型(潜在表示的先验)结合,可以与标准算术编码算法一起使用产生压缩比特流。与简单的全因子先验相比,分层熵模型可以利用更多潜变量中的结构,从而在保存端到端优化的同时提高压缩性能。众所周知,自回归模型 ......

Conditional Probability Models for Deep Image Compression

\(\quad\)在自编码器中使用深度网络已成为有前途的研究方向,这种学习网络有两个挑战: 处理量化与控制reconstruction error (distortion) entropy (rate) of the latent image representation之间的权衡(rate都用熵表 ......

Checkerboard Context Model for Efficient Learned Image Compression

目录AbstractIntroductionPreliminary 初步介绍Variational Image Compression with Hyperprior(超先验变分图像压缩)Autoregressive Context(自回归上下文模型)Parallel Context Modelin ......

ELIC: Efficient Learned Image Compression with Unevenly Grouped Space-Channel Contextual Adaptive Coding

abstruct \(\quad\) 受能量压缩表现的启发,提出了不均匀通道情况自适应编码.结合不均匀分组模型和现有上下文模型,获得一种空间通道上下文自适应模型,来提高编码性能,而不影响其运行时间。 \(\quad\)这种模型支持预览解码和渐进解码。 introduction 学习图像压缩中最重要的 ......

Conditional Probability Models for Deep Image Compression

深度神经网络被训练来作为图像压缩的自动编码器是一个前沿方向,面临的挑战有两方面——量化(quantization)和权衡reconstruction error (distortion) and entropy (rate),这篇文章关注后者。 主要思想是使用上下文模型直接对潜在表示的熵建模;3D- ......

Conditional Probability Models for Deep Image Compression

深度神经网络被训练来作为图像压缩的自动编码器是一个前沿方向,面临的挑战有两方面——量化(quantization)和权衡reconstruction error (distortion) and entropy (rate),这篇文章关注后者。 主要思想是使用上下文模型直接对潜在表示的熵建模;3D- ......

【流行前沿】Text + Sketch Image Compression at Ultra Low Rates

今天分享一篇7月挂在arxiv上的文章,研究的是用生成式网络进行图片压缩。 近十年来,用图片压缩的主流方法是神经网络来做。 17年左右流行用带有量化的autoencoder来做图片压缩,同时训练的指标也是常用的distortion metric,比如MSE,PSNR,MS-SSIM等等。 但是这些方 ......
Compression Sketch Image Rates Ultra

FOSTER:Feature Boosting and Compression for Class-Incremental Learning论文阅读笔记

## 摘要 先前的类增量学习方法要么难以在稳定性-可塑性之间取得较好的平衡,要么会带来较大的计算/存储开销。受gradient boosting的启发,作者提出了一种新型的两阶段学习范式FOSTER,以逐步适应目标模型和先前的集合模型之间的残差,使得该模型能够自适应地学习新的类别。具体来说,作者首先 ......

.net压缩文件(System.IO.Compression.ZipFile)

NuGet安装System.IO.Compression.ZipFile,注意不是System.IO.Compression 优点:不同于ICSharpCode.SharpZipLib.dll的地方是,这个插件可以直接压缩文件夹,文件夹内的文件自动压缩进去了,ICSharpCode.SharpZip ......
Compression ZipFile 文件 System net

阅读文献《DCRNet:Dilated Convolution based CSI Feedback Compression for Massive MIMO Systems》

这篇文章的作者是广州大学的范立生老师和他的学生汤舜璞,于2022年10月发表在 IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY。 文献提出了一种基于**空洞卷积(Dilated Convolution)**的CSI反馈网络,即空洞信道重建网络(Dilated Ch ......

MEMORY REPLAY WITH DATA COMPRESSION FOR CONTINUAL LEARNING--阅读笔记

MEMORY REPLAY WITH DATA COMPRESSION FOR CONTINUAL LEARNING--阅读笔记 摘要: 在这项工作中,我们提出了使用数据压缩(MRDC)的内存重放,以降低旧的训练样本的存储成本,从而增加它们可以存储在内存缓冲区中的数量。观察到压缩数据的质量和数量之间 ......
COMPRESSION CONTINUAL LEARNING 笔记 MEMORY
共16篇  :1/1页 首页上一页1下一页尾页