semantic planner kernel 128197
基于融合语义信息改进的内容推荐算法。Improved content recommendation algorithm integrating semantic information.
引言 路漫漫其修远兮,吾将上下而求索。每天一篇论文,做更好的自己。 本文读的这篇论文为发表于2023年5月28日的一篇名为《基于融合语义信息改进的内容推荐算法》(基于融合语义信息改进的内容推荐算法)的文章,文章主要介绍了基于内容的推荐技术在电子商务和教育领域的广泛应用,以及传统基于内容推荐技术在语义 ......
[linux kernel] struct pid && the way the kernel used to cast uint32_t pid to struct task_struct
摘抄内容引用自linux kernel document description pre the initialization and the manage of the struct pid is use IDR.(implement by hash table->(why not array?- ......
Understanding the linux kernel Chapter2 Memory Addressing
Physical Memory Layout unavailable address for kernel either because they map hardware devices’ I/O shared memory or because the corresponding page fr ......
安装pytorch/安装jupyterlab并添加已创建环境的kernel
安装pytorch 先创建一个环境,去pytorch官网查找环境所用python版本对应的torch版本,并选择合适的下载命令,在已激活的环境中运行命令,即可安装成功。 安装jupyter jupyter可以按cell运行代码,并且可以边写代码边做笔记。运行conda install jupyter ......
ubuntu 18.04.6 编译内核kernel提示 Can't find default configuration "arch/x86/configs/socfpga_deconfig"!
输入make socfpga_defconfig 的时候提示: ubuntu 18.04.6 编译内核kernel提示 Can't find default configuration "arch/x86/configs/socfpga_deconfig"! 解决办法: export ARCH=ar ......
Kernel Memory 中使用 PaddleSharp OCR
Kernel Memory 中使用 PaddleSharp OCR Kernel Memory 中进行文档处理的时候可以上传图片作为文档,这时候就需要使用到 OCR 技术来识别图片中的文字。 官方默认的库中,提供了 Azure Document Intelligence 的扩展服务,可以通过 Azu ......
掌握语义内核(Semantic Kernel):如何精进你的提示词工程
在人工智能的海洋里,大型语言模型(LLM AI)是高速发展的一艘巨轮,而有效地与其沟通和指导其行为的锚,正是提示语(prompts)。提示语是我们提供给模型的输入或查询,以期获取特定的响应。当今,提示语工程(prompt engineering)已成为涌现的领域,它需要创造力和对细节的关注。接下来, ......
[转帖]聊聊字符串数据长度和nls_length_semantics参数
字符串是我们设计数据库经常用到的类型,从传统的ASCII格式到UTF-8格式,不同应用需求对应不同的字符类型和长度配置。针对Oracle而言,最常用的类型无外乎char和varchar2两个基本类型。 对于一些中文应用,设计人员就需要重点关注数据表中字符串长度问题。因为在不同的字符串编码方式下,一个 ......
Kernel su
管中窥豹 重要的kprobe和队列 $ grep -rn INIT_WORK ./ ./uid_observer.c:137: INIT_WORK(&ksu_update_uid_work, do_update_uid); ./ksud.c:563: INIT_WORK(&stop_vfs_read ......
Kernel Memory 入门系列:异步管道
Kernel Memory 入门系列:异步管道 前面所介绍的处理流程都是基于同步管道的,即文档导入的时候,会等到文档处理完成之后才会返回。 但是在实际的应用中,文档很多,而且文档的处理时间也不确定,如果采用同步的方式,那么就会导致整个流程的处理时间过长,也会导致整个流程的阻塞。因此,我们需要一种异步 ......
Semantic Kernel入门学习文章合集
GitHub 卢老师的Cookbook https://github.com/kinfey/SemanticKernelCookBook?tab=readme-ov-file SK部落 https://mp.weixin.qq.com/s?__biz=MzI5MTg4NzIyNg==&mid=224 ......
Kernel Memory 入门系列:Semantic Kernel 插件
Kernel Memory 入门系列:Semantic Kernel 插件 Kernel Memory 本身提供了完整的RAG能力,这部分能力如果通过Semantic Kernel Memory的话,也是可以实现的,但是整体的管理成本会比较高。 因此通过Kernel Memory 构建知识库管理,然 ......
Identity-Guided Human Semantic Parsing for Person Re-Identification
实线代``表训练阶段,虚线代表聚类阶段。这两个阶段迭代完成,直到网络收敛。 ISP 是一种普遍适用且与骨干网无关的方法。 伪部分标签生成 部分对齐特征学习 两个过程 ......
lk uboot传参到Kernel
记录一下内核和uboot的传参 MTK传参 1. 在 app/mt_boot/mt_boot.c使用cmdline_append(buf); snprintf(buf, 10,"vcom=%s", vcom_str); pal_log_err("%s\n", buf); cmdline_append ......
Kernel Memory 入门系列:自定义处理流程
Kernel Memory 入门系列:自定义处理流程 在整个文档预处理的流程中,涉及到很多的处理步骤,例如:文本提取,文本分片,向量化和存储。这些步骤是Kernel Memory中的默认提供的处理方法,如果有一些其他的需求,也可以进行过程的自定义。 自定义Handler 在Kernel Memory ......
Kernel Memory 入门系列:文档的管理
Kernel Memory 入门系列: 文档的管理 在Quick Start中我们了解到如何快速直接地上传文档。当时实际中,往往会面临更多的问题,例如文档如何更新,如何划定查询范围等等。这里我们将详细介绍在Kernel Memory文档的管理。 使用Document管理一组文件 当我们需要批量上传一 ......
Kernel Memory 入门系列:生成并获取文档摘要
Kernel Memory 入门系列:生成并获取文档摘要 前面在RAG和文档预处理的流程中,我们得到一个解决方案,可以让用户直接获取最终的问题答案。 但是实际的业务场景中,仍然存在一些基础的场景,不需要我们获取文档的所有详情的,而只是了解的文档的大概信息,得到文章整体的摘要或者总结,此时仍然可以使用 ......
Semantic Kernel 正式发布 v1.0.1 版本
微软在2023年12月19日在博客上(Say hello to Semantic Kernel V1.0.1)发布了Semantic kernel的.NET 正式1.0.1版本。新版本提供了新的文档,以解释 SDK 创建 AI 代理的能力,这些代理可以与用户交互、回答问题、调用现有代码、自动化流程和 ......
Kernel Memory 入门系列:Kernel Memory Service
Kernel Memory 入门系列:Kernel Memory Service 在 Kernel Memory 的 GitHub 仓库中有一个单独的项目 Service , 用于提供独立的Kernel Memory OpenAPI 服务。可以用于独立的部署后台,也可以为其他语言提供接口调用服务。 ......
Kernel Memory 入门系列:快速开始
Kernel Memory 入门:Quick Start 了解了用户问答和文档预处理的流程之后,我们就可以直接开始使用Kernel Memory了。 1. 安装 项目中只需要通过NuGet安装Microsoft.KernelMemory.Core包即可。 dotnet add package Mic ......
Kernel Memory 入门系列:文档预处理
Kernel Memory 入门系列:文档预处理 Embedding为我们提供了问题理解和文档检索的方法,但是面对大量的文档,如果在用于提问的时候再进行文档的Embedding的话,那这个过程是非常耗时的,再加之我们的文档并不会频繁变化,所以我们可以对文档进行预处理,提升检索的效率。 文档的预处理大 ......
Kernel Memory 入门系列: Embedding 简介
Kernel Memory 入门系列: Embedding 简介 在 RAG模式 其实留了一个问题。 我们对于的用户问题的理解和文档的检索并没有提供合适的方法。 当然我们可以通过相对比较传统的方法。 例如对用户的问题进行关键词提取,然后通过关键词检索文档。这样的话,就需要我们提前对文档做好相关关键词 ......
SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation
SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation * Authors: [[Meng-Hao Guo]], [[Cheng-Ze Lu]], [[Qibin Hou]], [[Zhengning ......
CCNet: Criss-Cross Attention for Semantic Segmentation
CCNet: Criss-Cross Attention for Semantic Segmentation * Authors: [[Zilong Huang]], [[Xinggang Wang]], [[Yunchao Wei]], [[Lichao Huang]], [[Humphrey S ......
Fully convolutional networks for semantic segmentation
Fully convolutional networks for semantic segmentation * Authors: [[Jonathan Long]], [[Evan Shelhamer]], [[Trevor Darrell]] DOI: 10.1109/CVPR.2015.729 ......
SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation
SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation * Authors: [[Qiang Wan]], [[Zilong Huang]], [[Jiachen Lu]], [[Gang Yu]] ......
RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation
RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation * Authors: [[Guosheng Lin]], [[Anton Milan]], [[Chunhua Shen]], [[ ......
Expectation-Maximization Attention Networks for Semantic Segmentation 使用了EM算法的注意力
Expectation-Maximization Attention Networks for Semantic Segmentation * Authors: [[Xia Li]], [[Zhisheng Zhong]], [[Jianlong Wu]], [[Yibo Yang]], [[Zho ......
UNetFormer: A UNet-like transformer for efficient semantic segmentation of remote sensing urban scene imagery
UNetFormer: A UNet-like transformer for efficient semantic segmentation of remote sensing urban scene imagery * Authors: [[Libo Wang]], [[Rui Li]], [[ ......
SegViT: Semantic Segmentation with Plain Vision Transformers
SegViT: Semantic Segmentation with Plain Vision Transformers * Authors: [[Bowen Zhang]], [[Zhi Tian]], [[Quan Tang]], [[Xiangxiang Chu]], [[Xiaolin We ......