SOTA
何恺明新作:简单框架达成无条件图像生成新SOTA!与MIT合作完成
前言 大佬何恺明和MIT师生一起开发了一个自条件图像生成框架,名叫RCG。这个框架结构非常简单但效果拔群,直接在ImageNet-1K数据集上实现了无条件图像生成的新SOTA。 本文转载自新智元 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、 ......
重新审视Transformer:倒置更有效,真实世界预测的新SOTA出现了
前言 反转Transformer,变成iTransformer。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV全栈指导班、基础 ......
普林斯顿陈丹琦团队:手把手教你给羊驼剪毛,5%成本拿下SOTA
前言 给 Llama 2(羊驼)大模型剪一剪驼毛,会有怎样的效果呢?今天普林斯顿大学陈丹琦团队提出了一种名为 LLM-Shearing 的大模型剪枝法,可以用很小的计算量和成本实现优于同等规模模型的性能。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机 ......
ICCV论文速读:SOTA!越简单,越强大!ByteTrackV2-通用2D、3D跟踪算法(开源)
前言 本文提出了一个分层的数据关联策略来寻找低分检测框中的真实目标,这缓解了目标丢失和轨迹不连续的问题。这个简单通用的数据关联策略在2D和3D设置下都表现良好。另外,由于在3D场景中预测对象在世界坐标系中的速度比较容易,本文提出了一种辅助的运动预测策略,将检测到的速度与卡尔曼滤波器结合起来,以解决运 ......
30%Token就能实现SOTA性能,华为诺亚轻量目标检测器Focus-DETR效率倍增
前言 目前 DETR 类模型已经成为了目标检测的一个主流范式。但DETR 算法模型复杂度高,推理速度低,严重影响了高准确度目标检测模型在端侧设备的部署,加大了学术研究和产业应用之间的鸿沟。来自华为诺亚、华中科技大学的研究者们设计了一种新型的 DETR 轻量化模型 Focus-DETR来解决这个难题。 ......
深度学习刷SOTA的trick
作者:Gordon Leehttps://www.zhihu.com/question/540433389/answer/2549775065 1.R-Drop:两次前向+KL loss约束 2. MLM: 在领域语料上用mlm进一步预训练 (Post-training) 3. EFL: 少样本下, ......
ICCV 2023 | 南开大学提出LSKNet:遥感旋转目标检测新SOTA
前言 最近关于遥感物体检测的研究主要集中在改进旋转包围框的表示方法上,但忽略了遥感场景中出现的独特的先验知识。这种先验知识是非常重要的,因为微小的遥感物体可能会在没有参考足够长距离背景的情况下被错误地检测出来,而不同类型的物体所要求的长距离背景可能会有所不同。本文将这些先验因素考虑在内,并提出了 L ......
能「说」会「画」, VisCPM:SOTA 开源中文多模态大模型
最近, 清华大学 NLP实验室、面壁智能、知乎联合在 OpenBMB 开源多模态大模型系列VisCPM,评测显示,VisCPM 在中文多模态开源模型中达到最佳水平。 VisCPM 是一个开源的多模态大模型系列,支持中英双语的多模态对话能力(VisCPM-Chat模型)和文到图生成能力(VisCPM- ......
开源大模型新SOTA,支持免费商用,比LLaMA65B小但更强
号称“史上最强的开源大语言模型”出现了。 它叫Falcon(猎鹰),参数400亿,在1万亿高质量token上进行了训练。 最终性能超越650亿的LLaMA,以及MPT、Redpajama等现有所有开源模型。 一举登顶HuggingFace OpenLLM全球榜单: 除了以上成绩,Falcon还可以只 ......
刷新20项代码任务SOTA,Salesforce提出新型基础LLM系列编码器-解码器Code T5+
前言 大型语言模型 (LLMs) 最近在代码层面的一系列下游任务中表现十分出彩。通过对大量基于代码的数据 (如 GitHub 公共数据) 进行预训练,LLM 可以学习丰富的上下文表征,这些表征可以迁移到各种与代码相关的下游任务。但是,许多现有的模型只能在一部分任务中表现良好,这可能是架构和预训练任务 ......
PEGASUS:SOTA的抽象文本摘要模型
2020 年 6 月 9 日,星期二 作者:Peter J. Liu 和 Yao Zhao,Google Research 软件工程师 学生的任务通常是阅读文档并生成摘要(例如读书报告),以展示阅读理解和写作能力。这种抽象文本摘要是自然语言处理中最具挑战性的任务之一,涉及理解长段落、信息压缩和语 ......