probabilistic概率progressive transform

机器学习-概率图模型系列-隐含马尔科夫模型-33

目录1. Hidden Markov Model2. HMM模型定义 注:参考链接 https://www.cnblogs.com/pinard/p/6945257.html 1. Hidden Markov Model 隐马尔科夫模型(Hidden Markov Model,以下简称HMM)是比较 ......
模型 概率 机器 33

CF1506D - Epic Transformation

思路 用优先队列模拟 ac代码 #include <bits/stdc++.h> using namespace std; using i64 = long long; const i64 inf = 8e18; typedef pair<int, int> pii; const int N = 5 ......
Transformation 1506D 1506 Epic CF

LLM series: Transformer

🥥 Homepage Dataset, DataLoader, and Transforms Model Traning Model 🥑 Get Started! Import libraries: import torch import torch.nn as nn import torch. ......
Transformer series LLM

Learning Dynamic Query Combinations for Transformer-based Object** Detection and Segmentation论文阅读笔记

Motivation & Intro 基于DETR的目标检测范式(语义分割的Maskformer也与之相似)通常会用到一系列固定的query,这些query是图像中目标对象位置和语义的全局先验。如果能够根据图像的语义信息调整query,就可以捕捉特定场景中物体位置和类别的分布。例如,当高级语义显示图 ......

[NLP复习笔记] Transformer

1. Transformer 概述 1.1 整体结构 \(\text{Transformer}\) 主要由 \(\text{Encoder}\) 和 \(\text{Decoder}\) 两个部分组成。\(\text{Encoder}\) 部分有 \(N = 6\) 个相同的层,每层包含 一个 \( ......
Transformer 笔记 NLP

机器学习-决策树系列-贝叶斯算法-概率图模型-29

目录1. 复习条件概率2. 正式进入3. 生成式 与判别式 这个阶段的内容,采用概率论的思想,从样本里面学到知识(训练模型),并对新来的样本进行预测。 主要算法:贝叶斯分类算法、隐含马尔可夫模型、最大熵模型、条件随机场。 通过本阶段学习,掌握NLP自然语言处理的一些基本算法,本阶段的理解对于后续完成 ......
概率 算法 模型 机器 29

概率生成函数([CTSC2006] 歌唱王国 题解)

如果数列 {p_n} 满足 P(X=i)=p_i(即 {p_n } 为 X 的概率质量函数 PMF 所构成的数列),那么有概率生成函数:F_X(x)=\sum^{+\infty}_{i=0}P(X=i)x^i,概率生成函数具有一些性质,这些性质可以简化我们做题时的一些推导…… ......
题解 概率 函数 CTSC 2006

Probabilistic Method

Probabilistic Method 符号约定 均值:\(\mu=\mathbb{E}[X]\) 方差:\(\sigma=\text{Var}[X]\). 斜方差:\(\text{Cov}(X,Y)\). 引入 对于 0/1 随机变量 \(X_i\)(也对应着一个事件是否发生),令 \(X=\s ......
Probabilistic Method

RNN 和 Transformer 复杂度比较

这里假设BatchSize为 1,就是单样本的情况。 原始 RNN 块: (1)单步计算 H,包含两个矩阵向量乘法,和一个激活,复杂度HidSize² (2)一共有SeqLen步,所以整体复杂度SeqLen * HidSize² LSTM 块: (1)单步计算 F I C_hat O,包含八个矩阵向 ......
复杂度 Transformer RNN

挑战Transformer的新架构Mamba解析以及Pytorch复现

今天我们来详细研究这篇论文“Mamba:具有选择性状态空间的线性时间序列建模” Mamba一直在人工智能界掀起波澜,被吹捧为Transformer的潜在竞争对手。到底是什么让Mamba在拥挤的序列建中脱颖而出? 在介绍之前先简要回顾一下现有的模型 Transformer:以其注意力机制而闻名,其中序 ......
Transformer 架构 Pytorch Mamba

《Span-Based Joint Entity and Relation Extraction with Transformer Pre-Training》阅读笔记

代码 原文地址 预备知识: 1.什么是束搜索算法(beam search)? beam search是一种用于许多自然语言处理和语音识别模型的算法,作为最终决策层,用于在给定目标变量(如最大概率或下一个输出字符)的情况下选择最佳输出。 2.什么是条件随机场(Conditional Random Fi ......

CF1864H Asterism Stream【概率 DP,矩阵优化】

给定一变量,初始为 \(1\),每次等概率随机进行以下两种操作之一: 令 \(x\) 加一。 令 \(x\) 乘二。 求期望多少次操作之后 \(x\) 会 \(\ge n\)。 \(T\) 组数据,\(T\le 100\),\(n\le 10^{18}\)。 对着 aw 老师的题解学的,感觉太深刻。 ......
矩阵 概率 Asterism Stream 1864H

ICLR 2022: Anomaly Transformer论文阅读笔记+代码复现

本论文全名为Anomaly Transformer: Time Series Anomaly Detection with Association Descrepancy(通过关联差异进行时序异常检测),主要提出了一种无监督的异常点检测算法,并在6个benchmarks上测试,获取良好结果。 论文链 ......
Transformer Anomaly 代码 笔记 论文

数学吧 《高中数学概率题》

数学吧 《高中数学概率题》 https://tieba.baidu.com/p/8843698960 。 ......
数学 概率 高中

概率霍夫变换(Progressive Probabilistic Hough Transform)原理详解

概率霍夫变换(Progressive Probabilistic Hough Transform)的原理很简单,如下所述: 1.随机获取边缘图像上的前景点,映射到极坐标系画曲线; 2.当极坐标系里面有交点达到最小投票数,将该点对应x-y坐标系的直线L找出来; 3.搜索边缘图像上前景点,在直线L上的点 ......

5、flink任务中可以使用哪些转换算子(Transformation)

5、flink任务中可以使用哪些转换算子(Transformation) <div id="content_views" class="htmledit_views"> <h1>1、什么是Flink中的转换算子</h1> 在使用 Flink DataStream API 开发流式计算任务时,可以将一 ......
算子 Transformation 任务 flink

概率论复习笔记

$X$代表随机变量,$x$是具体的值。 规定:连续型随机变量取任意指定值的概率为$0$,即:$P(X=a)=0$ 概率密度函数$f(x)$ 某个邻域内概率的变化快慢。概率密度函数的值是概率的变化率,概率密度函数的面积才是概率。 于是可以得知$(a,b]$的概率:$P(a<X\le b)=\int_a ......
概率论 概率 笔记

Visual Transformer 与归纳偏置

开端 ViT(Visual Transformer)是 2020 年 Google 团队提出的将 Transformer 应用在图像分类的模型,但是当训练数据集不够大的时候,ViT 的表现通常比同等大小的 ResNets 要差一些。 为什么呢?寻找答案的过程中,发现了 归纳偏置 这个概念。 在阅读 ......
Transformer Visual

为了降低个人股票投资者的决策误判概率,我们做了一款软件

对于个人股票投资者而言,避免投资决策误判是最重要且最首要的,盈利多少都是次要的。 这是一个什么样的软件? 这是一个面向个人股票投资者的决策辅助工具【棱镜】,它旨在将你的分析决策逻辑转化为由文字和框架转化为算法,让计算机和算法辅助你共同决策,降低决策误判概率。网站:prismray.cn 为什么要做这 ......
个人股 概率 投资者 个人 软件

transformers 系列

Attention 注意力机制【1】-入门篇 注意力机制【2】- CV中的注意力机制 注意力机制【3】-Self Attention 注意力机制【4】-多头注意力机制 注意力机制【5】Scaled Dot-Product Attention 和 mask attention 注意力机制【6】-tra ......
transformers

多组学数据整合 | Multifaceted SOX2-chromatin interaction underpins pluripotency progression in early embryos

最近这篇Science文章不错,Multifaceted SOX2-chromatin interaction underpins pluripotency progression in early embryos - 15 December 2023 需要复刻里面的一些思路、解法和可视化。 复刻【 ......

Pandas - apply、agg、transform 函数

apply:行或列的操作。 agg:聚合,可以传递字典,对多个列使用不同的函数。最终结果可能会合并,与原 DataFrame 列长度不保持一致。 transform:转换,也可以对多个列使用不同的函数。但是最终结果与原 DataFrame 列长度保持一致,不会聚合。 ......
函数 transform Pandas apply agg

Swin Transformer

Swin Transformer 目录Swin Transformer简介VIT的缺陷核心创新总体结构和运作网络细节Patch partitionLinear EmbeddingPatch MergingSwin Block模块W-MSASW-MSAAttention Mask计算成本分析主要优势S ......
Transformer Swin

VIT Vision Transformer

VIT Vision Transformer 目录VIT Vision TransformerViT模型结构图像划分PatchLinear Projection of Flatted PatchesPatch+Position Embedding分类向量和位置向量EncoderMLP Head(全连 ......
Transformer Vision VIT

DETR基于Transformer目标检测

DETR基于Transformer目标检测 目录DETR基于Transformer目标检测DETR网络结构和NLP Transformer对比Object QueryFFN为什么DETR不需要NMS优缺点参考资料 DETR首次将Transformer应用到了目标检测任务中。图像会先经过一个传统的CN ......
Transformer 目标 DETR

【Transformer 基础系列】手推显存占用

https://zhuanlan.zhihu.com/p/648924115 本文试图以最清晰的方式手动推导 Transformers 每一步的参数量到显存、计算量问题。理解底层,才能更好的做训练和优化。可能是目前最全的大模型显存优化方案分析。 本文内容包括(1)模型训练和推理过程中的显存占用(2) ......
显存 Transformer 基础

ORA-01033 : ORACLE initialization or shutdown in progress

1、问题原因 测试环境反馈某一个模块页面一直加载当中,接口没有返回。 紧接着我就找到这个SQL语句在客户端工具navicat.exe上去执行,执行了整整一个半小时没有返回,navicat还关闭不了,最后实在受不了直接杀死navicat的进程。 这个时候重新打开navicat.exe连接数据库连接不上 ......

Unity3D 通过transform实现人物移动还是velocity详解

Unity3D是一款非常流行的游戏引擎,它提供了多种方式来实现游戏中的人物移动。其中,最常用的两种方法是通过transform组件和通过velocity属性来实现。 对啦!这里有个游戏开发交流小组里面聚集了一帮热爱学习游戏的零基础小白,也有一些正在从事游戏开发的技术大佬,欢迎你来交流学习。 通过tr ......
transform velocity Unity3D 人物 还是

概率论期末复习【更新中】

第五章 多维随机变量 多维随机变量函数的分布: 离散的: \(若X\sim B(n_1,p), Y\sim B(n_2,p),且X和Y相互独立,则X+Y\sim B(n_1+n_2,p)\) \(若X\sim P(\lambda_1)和Y\sim P(\lambda_2)相互独立,则X+Y\sim ......
概率论 概率

kettle从入门到精通 第二十六课 再谈 kettle Transformation executor

1、前面文章有学习过Transformation executor ,但后来测试kettle性能的时候遇到了很大的问题,此步骤的处理性能太慢,导致内存溢出等问题。所以再次一起学习下此步骤的用法。 2、 如下图中rds-sametable-同步逻辑处理使用的是Transformation execut ......
kettle Transformation executor
共584篇  :1/20页 首页上一页1下一页尾页