human

Redis - JSON human-friendly format

127.0.0.1:6379> JSON.SET obj $ '{"name":"Leonard Cohen", "lastSeen":1478476800,"loggedOut": true}' OK zzh@ZZHPC:~$ docker exec -it redis-stack-server ......
human-friendly friendly format Redis human

利用强化学习算法解释人类脑对高维状态的抽象表示:how humans can map high-dimensional sensory inputs in actions

论文: 《Using deep reinforcement learning to reveal how the brain encodes abstract state-space representations in high-dimensional environments》 地址: http ......

InstructGPT《InstructGPT: Training language models to follow instructions with human feedback》解读

背景 GPT-3 虽然在各大 NLP 任务以及文本生成的能力上令人惊艳,但是他仍然还是会生成一些带有偏见的,不真实的,有害的造成负面社会影响的信息,而且很多时候,他并不按人类喜欢的表达方式去说话。在这个背景下,OpenAI 提出了一个概念“Alignment”,意思是模型输出与人类真实意图对齐,符合 ......

Identity-Guided Human Semantic Parsing for Person Re-Identification

实线代``表训练阶段,虚线代表聚类阶段。这两个阶段迭代完成,直到网络收敛。 ISP 是一种普遍适用且与骨干网无关的方法。 伪部分标签生成 部分对齐特征学习 两个过程 ......

TIP2023 | Human Co-Parsing Guided Alignment for Occluded Person Re-Identification

代码:https://github.com/Vill-Lab/2022-TIP-HCGA 摘要:由于更多的背景噪声和不完整的前景信息,被遮挡人员重新识别(ReID)是一项具有挑战性的任务。尽管现有的基于人类解析的 ReID 方法可以通过最精细像素级别的语义对齐来解决这个问题,但它们的性能很大程度上受 ......

Hierarchical Clustering-based Personalized Federated Learning for Robust and Fair Human Activity Recognition-2023

任务:人类活动识别任务Human Activity Recognition HAR 指标:系统准确性、公平性、鲁棒性、可扩展性 方法:1. 提出一个带有层次聚类(针对鲁棒性和公平的HAR)个性化的FL框架FedCHAR;通过聚类(利用用户之间的内在相似关系)提高模型性能的准确性、公平性、鲁棒性。 2 ......

Human3.6m数据集

1.起因 因为俺是一枚小小的研一萌新,研究方向为人体运动预测,由此可知尼,这个数据集是绕不过去滴,但是因为它是非图像,跟其他的数据集也有些不同,就好好记录一下。 这次就以19年cvpr的图卷积作为一个引子,来开启这个数据集的学习啦!!!【学习使我快乐!(发疯版)】 论文链接:《Learning Tr ......
数据 Human3 Human 6m

horse or human

horse or human 以下 python 代码将使用 OS 库来使用操作系统库,使您可以访问文件系统,并使用 zipfile 库来解压缩数据。 import os import zipfile local_zip = './tmp/horse-or-human.zip' zip_ref = ......
horse human or

Human brain is awesome! (Transcripting notes and Practice my English writing

Copying may be valuable for learning math (see the story of Kunihiko Kodaira for more details), but always remember to copy with your heart - with you ......

RLHF · PBRL | PEBBLE:通过 human preference 学习 reward model

① 使用熵 intrinsic reward 的 agent pre-training,② 选择尽可能 informative 的 queries 去获取 preference,③ 使用更新后的 reward model 对 replay buffer 进行 relabel。 ......
preference PEBBLE reward human model

Go每日一库之130:go-humanize(人性化显示)

[go-humanize](https://github.com/dustin/go-humanize)是一个「人性化」的Go语言库,人性化的意思不是形容这个Go语言库,而是这个Go语言库实现的功能,它可以把数字、时间、容量等转换为我们人类容易理解的词语,比如硬盘的容量是 82854982 byte ......
go-humanize humanize 人性 130 go

Training language models to follow instructions with human feedback

郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NeurIPS 2022 ......

《LARGE LANGUAGE MODELS ARE HUMAN-LEVEL PROMPT ENGINEERS》论文学习

一、INTRODUCTION 深度神经网络规模和基于注意力的网络架构的结合,导致了语言模型具备了前所未有的通用性。“大型语言模型”(LLM)涌现出了很多令人惊艳的能力,包括: few-shot in-context learning zero-shot problem solving chain o ......
HUMAN-LEVEL ENGINEERS LANGUAGE MODELS PROMPT

题解 The Human Equation

[The Human Equation](https://www.luogu.com.cn/problem/CF1775E) 思维题。 我们考虑每次 $a$ 数组加一减一对于其前缀和 $sum$ 的影响。 可以发现,假设相邻两次加一和减一的位置分别为 $l$ 和 $r$,那么 $sum$ 在 $[l ......
题解 Equation Human The

《Generative Agents: Interactive Simulacra of Human Behavior》论文学习

一、论文基本思想 Figure 1: Generative agents create believable simulacra of human behavior for interactive applications. In this work, we demonstrate generati ......

Reward Modelling(RM)and Reinforcement Learning from Human Feedback(RLHF)for Large language models(LLM)技术初探

Reward Modelling(RM)and Reinforcement Learning from Human Feedback(RLHF)for Large language models(LLM)技术初探 ......

Exploring the Use of Humanized Mouse Models in Drug Safety Evaluation

However, there are differences between animals and humans, safety studies cannot be conducted on animal models alone, and normal animals do not respon... ......
Evaluation Exploring Humanized Models Safety

yuan-2022-PhysDiff: Physics-Guided Human Motion Diffusion Model

# PhysDiff: Physics-Guided Human Motion Diffusion Model #paper 1. paper-info 1.1 Metadata Author:: [[Ye Yuan]], [[Jiaming Song]], [[Umar Iqbal]], [[Ar ......
共18篇  :1/1页 首页上一页1下一页尾页