形态 终极 深度agents

docker部署gitlab CI/CD (二)终篇:部署gitlab runner和添加gitlab-ci.yml文件 终极踩坑版

网上教程很多,但断断续续,先不说大部分都是只截取片段,让人云里雾里,不会的看不懂,懂的不需要看,根据步骤跑不起来不说,改了一堆,完全不解释为什么,也分不清是官方要求还是作者自己夹带的私货。痛定思痛,抛弃任何教程,根据报错实时改进,于2023年4月24日完成此篇。 官方文档: https://docs ......
gitlab gitlab-ci 终极 文件 docker

深度学习--初识卷积神经网络

深度学习--初识卷积神经网络 1.LeNet-5 80年代,正确率达到99.2% 5/6层 输入层:32*32 第一层:卷积层 6@28*28 第二层:下采样层 6@14*14 第三层:卷积层 16@10*10 第四层:下采样层 16@5*5 第五层:全连接层 120 第六层:全连接层 84 输出层 ......
卷积 神经网络 深度 神经 网络

极客时间「大师课·深度剖析 RocketMQ5.0」上线啦,欢迎免费领取!

2022 年,RocketMQ 5.0 的正式版正式发布,相对于 RocketMQ 4.0,架构走向云原生化,并且覆盖了更多的业务场景。想要掌握最新版本 RocketMQ 的应用,就需要进行更加体系化的深入了解。 ......
RocketMQ5 深度 RocketMQ 大师 时间

深度学习--卷积神经网络基础

深度学习--卷积神经网络基础 1.卷积操作 卷积操作简单来说就是矩阵对应位置相乘求和,这样不仅可以减少模型的参数数量,还可以关注到图像的局部相关特性。 import torch import torch.nn as nn import torch.nn.functional as F #卷积操作(I ......
卷积 网络基础 深度 神经 基础

动手深度学习pytorch 5-7章

深度学习计算 1. 块提供的基本功能: 1. 输入数据作为前向传播函数的参数 2. 通过前向传播函数生成输出 3. 计算其输出关于输入的梯度 4.存储和访问前向传播计算所需的参数 5. 根据需要初始化模型参数 2. Sequential 类 1. 将块逐个追加到列表中的函数 2. 前向传播函数,用于 ......
深度 pytorch

深度学习样本绘制注意事项

在绘制深度学习样本的时候,部分初学者总是用绘制监督分类样本的方法绘制深度学习样本,在图像上随意绘制样本,这种绘制样本的方法不适用于深度学习样本绘制。 如下为错误的示例: 深度学习样本绘制应遵循“全、多、精”三个原则: 样本子区域选取,应该全面覆盖多种地物类型。 绘制样本尽可能地多,推荐绘制子区域内8 ......
样本 注意事项 深度 事项

深度学习之查看显卡型号

首先用cmd打开终端,输入nvidia-smi ,接着输入nvcc -V ......
显卡 深度 型号

sass样式穿透,深度作用选择器, 父选择器

scss .el-input-number { ::v-deep #inputNumber { text-align: left; } } css .el-input-number >>> #inputNumber { text-align: left; } & a { font-weight: b ......
样式 深度 作用 sass

可视化大屏的终极解决方案居然这么简单,vue-autofit一行全搞定!

可视化大屏适配/自适应现状 可视化大屏的适配是一个老生常谈的话题了,现在其实不乏一些大佬开源的自适应插件、工具但是我为什么还要重复造轮子呢?因为目前市面上适配工具每一个都无法做到完美的效果,做出来的东西都差不多,最终实现效果都逃不出白边的手掌心,可以解决白边问题的,要么太过于复杂,要么会影响dom结 ......

基于深度强化学习(DQN)的迷宫寻路算法

QLearning方法有着明显的局限性,当状态和动作空间是离散的且维数不高时可使用Q-Table存储每个状态动作的Q值,而当状态和动作时高维连续时,该方法便不太适用。可以将Q-Table的更新问题变成一个函数拟合问题,通过更新参数θ使得Q函数逼近最优Q值。DL是解决参数学习的有效方法,可以通过引进D ......
迷宫 算法 深度 DQN

深度学习基础入门篇[七]:常用归一化算法、层次归一化算法、归一化和标准化区别于联系、应用案例场景分析。

深度学习基础入门篇[七]:常用归一化算法、层次归一化算法、归一化和标准化区别于联系、应用案例场景分析。 ......
算法 深度 场景 层次 常用

深度学习--可视化、过拟合

深度学习--可视化、过拟合 cmd运行命令:python -e visdom.server 用法: from visdom import Visdom viz = Visdom() viz.line([0.],[0.],win='train_loss',opts=dict(title='train ......
深度

深度学习入门系列之doc

这周老师让把深度学习的名词过一遍,小玛同学准备在过一遍Deep Learning名词的同时把基本的模型也过一遍。 感谢杰哥发我深度学习入门系列能让我有机会快速入门。 下面就来doc一些学到的东西 感知器(线性单元)有个问题就是当面对的数据集不是线性可分的时候,“感知器规则”可能无法收敛,这意味着我们 ......
深度 doc

深度学习--全连接层、高阶应用、GPU加速

深度学习--全连接层、高阶应用、GPU加速 MSE均方差 Cross Entropy Loss:交叉熵损失 Entropy 熵: 1948年,香农将统计物理中熵的概念,引申到信道通信的过程中,从而开创了信息论这门学科,把信息中排除了冗余后的平均信息量称为“信息熵”。香农定义的“熵”又被称为香农熵或信 ......
全连 高阶 深度 GPU

深度神经网如何通过从数据中学习特征来帮助避免人工提取特征

深度神经网络(dnn)通过从数据中直接学习特征,无需人为干预或专业知识,可以帮助避免需要手动提取特征的繁琐过程。 深度神经网络由许多层组成,每个层都包含许多神经元。这些神经元组合成了一系列权重和偏差来映射输入特征到输出目标。通过反向传播算法,模型可以更新权重和偏差以优化其预测效果。 在训练dnn时, ......
神经网 特征 过从 人工 深度

5.深度学习计算

除了庞大的数据集和强大的硬件, 优秀的软件工具在深度学习的快速发展中发挥了不可或缺的作用。 从2007年发布的开创性的Theano库开始, 灵活的开源工具使研究人员能够快速开发模型原型, 避免了我们使用标准组件时的重复工作, 同时仍然保持了我们进行底层修改的能力。 随着时间的推移,深度学习库已经演变... ......
深度

如何配置一个用于深度学习的 GPU 服务器 [Ubuntu 18.04 LTS 为例]

一、硬件配置 CPU of Intel i9-9980XE (18-core 36-thread, @3.0-4.4 GHz), RAM of 128 GB (DDR4), GPU of NVIDIA RTX 2080 Ti*4 (11 GB GDDR6*4), and M.2 NVMe SSD o ......
深度 服务器 Ubuntu 18.04 GPU

跟姥爷深度学习4 从数学计算看神经网络

一、前言 我们前面简单的做了一个气温预测,经过反复调试,效果还不错。实际上在这个方向上我们还可以更进一步优化,但因为我们是学习嘛,主要还是看广度而不是深度。考虑到后面要开始学习卷积网络,我们必须把更基础的内容搞明白才行,比如神经网络到底是如何工作的,如果不搞明白后面卷积就只能说用法而不明白原因了。所 ......
神经网络 姥爷 深度 神经 数学

递推与递归和DFS深度优先搜索

递推与递归和DFS深度优先搜索 跳台阶 递归实现指数级枚举 递归实现排列型枚举 递归实现组合型枚举 P1036 选数 习题课 递推/ 递归 / DFS P2089 烤鸡 指数 P1088 火星人 全排列 P1149 火柴棒等式 指数 + 预处理 P2036 PERKET 指数 P1135 奇怪的电梯 ......
深度 DFS

wsl2+docker跑深度学习

wsl(ubuntu20.04)+docker安装paddle 1.中文显示设置 安装语言包 sudo apt install language-pack-zh-hans 设置locale sudo vi /etc/locale.gen 找到 zh_CN.UTF-8 UTF-8 并取消注释,然后保存 ......
深度 docker wsl2 wsl

深度学习--统计与数据映射

深度学习--统计与数据映射 范数 import torch #范数norm 第一范数:绝对值求和 第二范数:平方和后求根号 norm使用要求是浮点数 a=torch.full([8],1.) #tensor([1., 1., 1., 1., 1., 1., 1., 1.]) b=a.view(2,4 ......
深度 数据

【深度思考】聊聊CGLIB动态代理原理

1. 简介 CGLIB的全称是:Code Generation Library。 CGLIB是一个强大的、高性能、高质量的代码生成类库,它可以在运行期扩展Java类与实现Java接口, 底层使用的是字节码处理框架ASM。 Github地址:https://github.com/cglib/cglib ......
深度 原理 动态 CGLIB

深度学习基础入门篇[六(1)]:模型调优:注意力机制[多头注意力、自注意力],正则化【L1、L2,Dropout,Drop Connect】等

深度学习基础入门篇[六(1)]:模型调优:注意力机制[多头注意力、自注意力],正则化【L1、L2,Dropout,Drop Connect】等 ......
注意力 正则 多头 深度 模型

深度学习--数学运算符

深度学习--数学运算符 基础运算符 加减乘除 import torch a=torch.randint(1,10,[2,2]) b=torch.randint(1,10,[2,2]) print(a) #tensor([[9, 7],[5, 8]]) print(b) #tensor([[2, 4] ......
运算符 深度 数学

深度学习--PyTorch维度变换、自动拓展、合并与分割

深度学习--PyTorch维度变换、自动拓展、合并与分割 一、维度变换 1.1 view/reshape 变换 ​ 这两个方法用法相同,就是变换变量的shape,变换前后的数据量相等。 a=torch.rand(4,1,28,28) a.view(4,28*28) #tensor([[0.9787, ......
维度 深度 PyTorch

用一阶矩初步控制随机二叉树的深度

回顾 Catalan 数 $$ C = z(1 + C)^2, $$ 根据 Lagrange 反演, 我们有 $$ z^n^k = \frac{k}{n}[t^{n-1}] (1+t)^{2n+k-1} = \frac{k}{n} \binom{2n+k-1}{n+k}. $$ 考虑计数随机二叉树有 ......
深度

深度学习基础入门篇[六]:模型调优,学习率设置(Warm Up、loss自适应衰减等),batch size调优技巧,基于方差放缩初始化方法。

深度学习基础入门篇[六]:模型调优,学习率设置(Warm Up、loss自适应衰减等),batch size调优技巧,基于方差放缩初始化方法。 ......
方差 深度 模型 技巧 基础

深度学习--PyTorch定义Tensor以及索引和切片

深度学习--PyTorch定义Tensor 一、创建Tensor 1.1未初始化的方法 ​ 这些方法只是开辟了空间,所附的初始值(非常大,非常小,0),后面还需要我们进行数据的存入。 torch.empty():返回一个没有初始化的Tensor,默认是FloatTensor类型。 #torch.em ......
深度 索引 PyTorch Tensor

深度学习显卡的选择

深度学习显卡的选择: 1、选择算力在5.0以上的 在GPU算力高于5.0时,可以用来跑神经网络。算力越高,计算能力越强。 2、尽量选择大显存 显存越高,意味着性能越强悍。特别是对于CV领域。 3、GPU几个重要的参数 显存带宽:代表GPU芯片每秒与显存交换的数据大小,这个值等于显存位宽*工作频率,单 ......
显卡 深度

k8s deployment资源部署java以及skywalking agent示例

cat deploy.yml apiVersion: apps/v1 kind: Deployment metadata: name: app-name namespace: your-namespace annotations: kubernetes.io/change-cause: 2.11.0 ......
示例 deployment skywalking 资源 agent