概论 深度week1 week

Pytorch深度学习环境配置 | NVIDIA-driver + Pytorch + miniconda

为了验证我的环境配置方法没有问题,我特意租了两小时云服务器来从0配置环境。 云服务器厂家:Ucloud ubuntu22.04 3090 * 2 1. 装 NVIDIA-driver 参考:https://zhuanlan.zhihu.com/p/366882419 1.1. 下载驱动 nvidia ......

【0xGame 2023】题解week1

前段时间在忙各种事情,这两天有学弟学妹要入re,想带着他们打个新生赛,我就打算把这个比赛week1的题先出一遍,后面的之后再说。 这次0xGame的re题目名称都很有意思,开始做吧。 数字筑基 解法 直接搜索字符串 代码金丹 解法 就比第一题多个判断过程,不过flag仍然明文 网络元婴 解法 进去后 ......
题解 0xGame xGame week1 2023

第九节:单点登录方案深度剖析

一. 二. 三. ! 作 者 : Yaopengfei(姚鹏飞) 博客地址 : http://www.cnblogs.com/yaopengfei/ 声 明1 : 如有错误,欢迎讨论,请勿谩骂^_^。 声 明2 : 原创博客请在转载时保留原文链接或在文章开头加上本人博客地址,否则保留追究法律责任的权 ......
深度 方案

《动手学深度学习 Pytorch版》 9.8 束搜索

本节将介绍几大: 贪心搜索(greedy search)策略 穷举搜索(exhaustive search) 束搜索(beam search) 9.8.1 贪心搜索 贪心搜索已用于上一节的序列预测。对于输出序列的每一时间步 \(t'\),都从 \(\boldsymbol{Y}\) 中找到具有最高条件 ......
深度 Pytorch 9.8

《动手学深度学习 Pytorch版》 9.6 编码器-解码器架构

为了处理这种长度可变的输入和输出, 可以设计一个包含两个主要组件的编码器-解码器(encoder-decoder)架构: 编码器(encoder):它接受一个长度可变的序列作为输入,并将其转换为具有固定形状的编码状态。 解码器(decoder):它将固定形状的编码状态映射到长度可变的序列。 9.6. ......
编码器 解码器 架构 深度 编码

《动手学深度学习 Pytorch版》 9.7 序列到序列学习(seq2seq)

循环神经网络编码器使用长度可变的序列作为输入,将其编码到循环神经网络编码器固定形状的隐状态中。 为了连续生成输出序列的词元,独立的循环神经网络解码器是基于输入序列的编码信息和输出序列已经看见的或者生成的词元来预测下一个词元。 要点: “<eos>”表示序列结束词元,一旦输出序列生成此词元,模型就会停 ......
序列 seq 深度 Pytorch seq2seq

深度学习(pytorch载入onnx测试)

测试模型用之前文章训练的Alexnet模型。 首先将pth文件转为onnx文件: import torch import torch.nn as nn # 自定义AlexNet模型 class AlexNet(nn.Module): def __init__(self): super(AlexNet ......
深度 pytorch onnx

《动手学深度学习 Pytorch版》 9.5 机器翻译与数据集

机器翻译(machine translation)指的是将序列从一种语言自动翻译成另一种语言,基于神经网络的方法通常被称为神经机器翻译(neural machine translation)。 import os import torch from d2l import torch as d2l 9 ......
深度 机器 Pytorch 数据 9.5

哪款最适合你?7大免费需求管理工具深度比较

分享7款不错的免费需求管理工具:1.PingCode;2.Worktile;3. Trello;4. Asana;5. JIRA;6. ClickUp;7. Monday.com。选择免费还是付费的需求跟踪工具是一个大多数人都会面临的问题。免费工具的最大优点显而易见——它们不收费。但这也意味着这些工 ......
管理工具 深度 需求 工具

课程二第一周:深度学习的实用层面

深度学习的实用层面 Train/Dev/Test sets 深度学习是一个典型的高度迭代的过程,需要不断地进行循环测试,来找到最适合当前网络的超参。一方面可以提升迭代的效率,另一方面可以避免过度拟合等问题。 在实践中,(合理的)高质量训练集、验证集和测试集,有助于提升迭代的效率。 Train/Dev ......
层面 深度 课程

《动手学深度学习 Pytorch版》 9.4 双向循环神经网络

之前的序列学习中假设的目标是在给定观测的情况下对下一个输出进行建模,然而也存在需要后文预测前文的情况。 9.4.1 隐马尔可夫模型中的动态规划 数学推导太复杂了,略。 9.4.2 双向模型 双向循环神经网络(bidirectional RNNs)添加了反向传递信息的隐藏层,以便更灵活地处理此类信息。 ......
神经网络 双向 深度 神经 Pytorch

《动手学深度学习 Pytorch版》 9.3 深度循环神经网络

将多层循环神经网络堆叠在一起,通过对几个简单层的组合,产生一个灵活的机制。其中的数据可能与不同层的堆叠有关。 9.3.1 函数依赖关系 将深度架构中的函数依赖关系形式化,第 \(l\) 个隐藏层的隐状态表达式为: \[\boldsymbol{H}^{(l)}_t=\phi_l(\boldsymbol ......
深度 神经网络 神经 Pytorch 网络

《动手学深度学习 Pytorch版》 9.2 长短期记忆网络(LSTM)

解决隐变量模型长期信息保存和短期输入缺失问题的最早方法之一是长短期存储器(long short-term memory,LSTM)。它与门控循环单元有许多一样的属性。长短期记忆网络的设计比门控循环单元稍微复杂一些,却比门控循环单元早诞生了近 20 年。 9.2.1 门控记忆元 为了记录附加的信息,长 ......
长短 深度 记忆 Pytorch 网络

【Python&RS】基于GDAL栅格数据/图片位深度(bit)转换

最近在用OpenCv库处理图片时发现cv库无法读取64位的tif影像,所有想通过Python将64位的图片转换成8位的。今天就跟大家分享一下如何利用Python的GDAL库,实现栅格数据/图片的位深度转换。 ......
栅格 深度 数据 Python 图片

深度学习基础认知简明梳理

深度学习基础简明梳理-基于李宏毅油管课程 前言 该内容为基于博主对深度学习的认知与实践经验的对李宏毅油管上课程的简要理解,有局限偏差之处,敬请谅解。后续随着学习的深入会进行一定修正。 本质概述 此处不会特意探讨机器学习与深度学习之间的差别,纵观这些领域,它们所构建的方法论为:寻找到一个模型(函数), ......
深度 基础

深度学习模型_锁死种子

import torch import random import os import numpy as np def seed_setting(seed): random.seed(seed) # os.environ['']=str(seed) np.random.seed(seed) torc ......
深度 种子 模型

神经网络入门篇:为什么深度学习会兴起?

为什么深度学习会兴起? 这篇我们来讲故事,关于为什么深度学习会兴起的故事~ 深度学习和神经网络之前的基础技术理念已经存在大概几十年了,为什么它们现在才突然流行起来呢? 因为多亏数字化社会的来临,现在的数据量都非常巨大,我们花了很多时间活动在这些数字的领域,比如在电脑网站上、在手机软件上以及其它数字化 ......
学习会 神经网络 深度 神经 网络

《动手学深度学习 Pytorch版》 9.1 门控循环单元(GRU)

我们可能会遇到这样的情况: 早期观测值对预测所有未来观测值具有非常重要的意义。 考虑一个极端情况,其中第一个观测值包含一个校验和,目标是在序列的末尾辨别校验和是否正确。在这种情况下,第一个词元的影响至关重要。我们希望有某些机制能够在一个记忆元里存储重要的早期信息。如果没有这样的机制,我们将不得不给这 ......
单元 深度 Pytorch 9.1 GRU

课程概论与python3语法

server端 云盘:代替硬盘disk,存图片,视频,几百G、几T Mysql:存代码,文本,几十G Redis:占用内存, client端 Web Storage ds内存 1、注释 # ......
概论 语法 python3 课程 python

Newstar CTF 2023 week2 pwn

1.ret2libc 发现存在pop rdi 观察main函数,可以利用puts函数泄露libc from pwn import * from LibcSearcher import * context(os="linux", arch="amd64", log_level="debug") elf ......
Newstar week2 2023 week CTF

《动手学深度学习 Pytorch版》 8.7 通过时间反向传播

8.7.1 循环神经网络的梯度分析 本节主要探讨梯度相关问题,因此对模型及其表达式进行了简化,进行如下表示: \[\begin{align} h_t&=f(x_t,h_{t-1},w_h)\\ o_t&=g(h_t,w_o) \end{align} \]参数字典: \(t\) 表示时间步 \(h_t ......
深度 Pytorch 时间 8.7

newstar week2

RE PZthon 发现是python写的,先用 pyinstxtractor解包,然后将PZthon.pyc用pycdc反编译得到源码 # Source Generated with Decompyle++ # File: PZthon.pyc (Python 3.9) def hello(): ......
newstar week2 week

[Leetcode Weekly Contest]367

链接:LeetCode [Leetcode]2903. 找出满足差值条件的下标 I 给你一个下标从 0 开始、长度为 n 的整数数组 nums ,以及整数 indexDifference 和整数 valueDifference 。 你的任务是从范围 [0, n - 1] 内找出 2 个满足下述所有条 ......
Leetcode Contest Weekly 367

Tinyalsa PCM API 实现深度剖析

高级 Linux 音频架构 (ALSA) 用于为 Linux 操作系统提供音频和 MIDI 功能。它可以高效地支持所有类型的音频接口,从消费者声卡到专业的多通道音频接口。它支持全模块化的音频驱动。它是 SMP 和线程安全的。它提供了用户空间库 (alsa-lib) 来简化应用程序编程并提供了更高级的 ......
深度 Tinyalsa PCM API

Week 13

Week 13 div2每日一题 目录Week 13div2每日一题101. 一个小整数(回)102. 特殊的正方形103. 走楼梯2103 走路 (回)(dp)104 简单分数统计(map)105 Alice的德州扑克106 订单编号(并查集问题)(map)107 饿饿 饭饭108 任务分配(回) ......
Week 13

week 3

Week 3 线性表 P3613 【深基15.例2】寄包柜 分析:此题直接用数组得1e9个格子,内存要爆 知识点 map容器: find() 返回数据所在位置的迭代器 insert() 插入pair 迭代器:iterator,用于遍历容器元素(类似指针),输出*迭代器打印元素的值 主要思路:vect ......
week

Week 6

Week 6 贪心算法 P1199 [NOIP2010 普及组] 三国游戏 知识点:贪心、博弈题 思路:计算机的选择是贪心的,所以玩家和计算机都不可能选到默契值最大的武将组合。 小涵赢的情况:在第二次选将时可以拿到第一次选中的武将的次大默契值组合。 #include<bits/stdc++.h> u ......
Week

Week 12

Week 12 P1776 宝物筛选 思路:多重背包问题,用二进制优化 注意:看清题目输入的顺序 #include<bits/stdc++.h> using namespace std; const int N=1e6+10; int w[N],v[N],s[N],dp[N]; int main() ......
Week 12

week 14

Week 14 目录Week 14Div2 每日一题202 路径计数(dp)203 最大和上升子序列(线性dp)204 加一(dp)(回)205 跳跳206 异或和或207 01序列(前缀和)(map哈希表)301 出栈序列判断302 序列维护303 网格判断304 整齐的数组洛谷dp题P1020 ......
week 14

week 15

Week 15 目录Week 15div2 每日一题305 删删306 快快变大(区间dp)307 饿饿 饭饭2401 子串分值和402 蒟蒻403 锦标赛404 可重排列405 进制转换406 循环子串407 饿饿 饭饭之暑假大狂欢501 RSA503 A-B 数对刷题构造回文P3397 地毯(前 ......
week 15