thoughts

Thoughts and ideas about how to apply LLMs in specific domains like clinic/law/finance

Applying LLMs in Specific Domains As a university student who has just completed fine-tuning TinyLLaMA-1b with clinical instruction data using the QLo ......
Thoughts specific domains finance clinic

Some Recent Thoughts Wrritten By NiuJiawen-2019141490165

Recently, many students who are junior year are taking part in interviews for exempt students. Some have obtained satisfactory offers, whereas, others ......

Record daily thoughts on August 14 2023

宿舍的饮水机没水了,送水的大概明天或者后天送过来,现在是接点自来水烧凉白开喝,今天可能是口渴,想跑出校门买西瓜吃,后来克制住了消费的欲望,因为我发现我一年的伙食费居然花1万2千多. 后来算算也不离谱,一年365天,一天花费大概35块钱,而且一天有三餐,也并不是大手大脚乱花钱,不过想想,网上有很多人一 ......
thoughts Record August daily 2023

ChatGPT技巧之Few-Shot Chain of Thought(少样本思维链)

**Few-Shot Chain of Thought(少样本思维链)** 这个技巧使用的关键就是在给AI提供示例的同时解释示例的逻辑。 比如这样 - 这组数字中的奇数加起来得到一个偶数:4、8、9、15、12、2、1。A:将所有奇数相加(9、15、1),得到25。答案是False。 - 这组数字中 ......
样本 Few-Shot 思维 ChatGPT Thought

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

[TOC] > [Wei J., Wang X., Schuurmans D., Bosma M., Ichter B., Xia F., Chi E. H., Le Q. V. and Zhou D. Chain-of-thought prompting elicits reasoning in ......

Interleaving Retrieval with Chain-of-Thought Reasoning for Knowledge-Intensive Multi-Step Questions

[TOC] > [Trivedi H., Balasubramanian N., Khot T., Sabharwal A. Interleaving retrieval with chain-of-thought reasoning for knowledge-intensive multi-st ......

语言模型的预训练[6]:思维链(Chain-of-thought,CoT)定义原理详解、Zero-shot CoT、Few-shot CoT 以及在LLM上应用

语言模型的预训练[6]:思维链(Chain-of-thought,CoT)定义原理详解、Zero-shot CoT、Few-shot CoT 以及在LLM上应用 ......
CoT Chain-of-thought shot Zero-shot Few-shot

Prompt工程进阶之Tree of Thoughts

摘要 本期和大家一起读篇论文,由 Google DeepMind 和普林斯顿大学联合提出的「思维树[1]」框架。该框架是 COT(思维链)的泛化模型,它基于人类认知学理论,思维的快慢系统,提出了一种基于树模型的 Prompt 提示方法。 整体感受,论文思路很好。首先 LLM 的 COT 是激发 LL ......
Thoughts Prompt 工程 Tree of

Chain-of-Thought Prompting in Large Language Models 论文学习

一、Chain-of-Thought Prompting研发背景 因为LLM,NLP的格局最近发生了革命性的变化,同时。扩大语言模型的规模已经被证明可以带来一系列好处,例如改进的性能和样本效率。然而事实证明,仅扩大模型大小依然存在一些局限性,在诸如 算术 常识 符号推理 实时数据获取 代码模拟执行 ......

Self-consistency Improves Chain of Thought Reasoning in Language Models 论文阅读

ICLR 2023 [原文地址](https://arxiv.org/abs/2203.11171) ## 1. Motivation Chain-of-Thought(CoT)使Large Language Models(LLMs)在复杂的推理任务中取得了令人鼓舞的结果。 本文提出了一种新的解码策 ......

EmbodiedGPT: Vision-Language Pre-Training via Embodied Chain of Thought

Abstract: 具身人工智能(Embodied AI)让机器人有规划、执行动作序列的能力,以在物理环境中完成长期任务。本文提出EmbodiedGPT,它是一个端到端的多模态基础模型,赋予具身代理多模态理解和执行能力。本文的贡献主要有三点: 制作了一个大规模的具身规划数据集EgoCOT。该数据集包 ......

thoughts-on-My-Memories-of-Old-Beijing

读《城南旧事》 Created: 2023-05-25T18:30+08:00 Categories: ReadingNotes 最近在看《Happier》、《毛毛》,感觉不同书里一些词句和记忆中的文字相通了。 最早接触林海音的文章,可能是来自《童年·冬阳·骆驼队》: > 老师教给我,要学骆驼,沉得 ......

Tree-of-Thought

引言 人工智能的发展一直以来都是实现智能系统推理能力的主要目标之一。近年来,大型语言模型的发展取得了重大进展,特别是它们在上下文学习方面的应用,为机器推理开辟了新的途径,但其在复杂推理方面仍面临挑战。为此今天分享的这篇文章,介绍了一种名为“Tree-of-Thought(ToT)”的框架,旨在提高自 ......
Tree-of-Thought Thought Tree of

大模型思维链(Chain-of-Thought)技术原理

背景 https://zhuanlan.zhihu.com/p/629087587 2021年,提示学习(prompt learning)浪潮兴起,而早在2020年,OpenAI 就在论文 Language Models are Few-Shot Learners 中提出了如何使用 prompt l ......

使用思维链(Chain-of-thoughts)提示在大型语言模型中引出推理

语言模型(LM)在NLP领域的发展速度非常快,特别是在大型语言模型(LLM)方面:当语言模型具有大量参数或权重/系数时,它们被称为“大型”。这些“大型”语言模型拥有处理和理解大量自然语言数据的能力。 LLM被用于一系列自然语言任务,如文本摘要、情感分析、主题分类、语言翻译、自动完成等。扩展LM的一些 ......

Chain of Thought(思维链)

"思维链"(Chain of Thought)是指一系列有逻辑关系的思考步骤或想法,这些步骤或想法相互连接,形成了一个完整的思考过程。它是指导我们思考和解决问题的一种方法,可以帮助我们更好地理解问题、分析问题和解决问题。 一个有效的思维链应该具有以下特点: 逻辑性:思维链中的每个思考步骤都应该是有逻 ......
思维 Thought Chain of
共16篇  :1/1页 首页上一页1下一页尾页