open-source fine-tuning chatbot trained

Generative Pre-trained Transformer(GPT)模型技术初探

一、Transformer模型 2017年,Google在论文 Attention is All you need 中提出了 Transformer 模型,其使用 Self-Attention 结构取代了在 NLP 任务中常用的 RNN 网络结构。相比 RNN 网络结构,其最大的优点是可以并行计算。 ......

HNU2019 Summer Training 3 E. Blurred Pictures

E. Blurred Pictures time limit per test 2 seconds memory limit per test 256 megabytes input standard input output standard output Damon loves to take ......
Pictures Training Blurred Summer 2019

论文解读( FGSM)《Adversarial training methods for semi-supervised text classification》

论文信息 论文标题:Adversarial training methods for semi-supervised text classification论文作者:Taekyung Kim论文来源:ICLR 2017论文地址:download 论文代码:download视屏讲解:click 1 背 ......

【IOI2017】Toy Train(博弈)

题目链接:https://uoj.ac/problem/322 分析 “一个点的出边一旦确定就不能改变”这个条件不好处理。通过网上一些题解的分析,可以把问题修改成: 结点的主人每次可以指定任意一条出边(即使之前已经指定了另外一条)。 A 胜利条件:存在一种策略,无论 B 怎么操作,总能使火车无限次经 ......
Train 2017 IOI Toy

迁移学习《Asymmetric Tri-training for Unsupervised Domain Adaptation》

论文信息 论文标题:Asymmetric Tri-training for Unsupervised Domain Adaptation论文作者:Kuniaki Saito, Y. Ushiku, T. Harada论文来源:27 February 2017——ICML论文地址:download 论 ......

如何使用OpenAI Fine-tuning API微调GPT-3模型

https://platform.openai.com/docs/guides/fine-tuning(官方文档) ​ 当我们使用语言模型时候,往往需要给多个例子供ai参考,才能给出更为准确的回答,这种方法费时费力。而通过微调(Fine-tuning)能够把原始模型打造成更加适合你的任务需求的模型。 ......
Fine-tuning 模型 OpenAI tuning Fine

【829】sklearn中train_test_split函数中的random_state有什么用?

参考:sklearn.model_selection中train_test_split的坑 参考:sklearn中train_test_split函数中的random_state有什么用? 对 random_state 设置一个固定的值,可以保证每次得到相同的训练集与测试集! ......

「解题报告」ARC123E Training

挺有趣的题,为数不多的自己能切的题。 题意无非就是要你求 $i \in [1, n]$,有多少满足 $a + \lfloor\frac{i}{b} \rfloor = c + \lfloor\frac{i}{d}\rfloor$。 首先移项,得 $a - c = \lfloor\frac{i}{d} ......
Training 报告 123E ARC 123

KPCA matlab代码,可分train和test。 注释清晰

KPCA matlab代码,可分train和test。 注释清晰YID:7220647215929418 ......
注释 代码 matlab train KPCA

Going Deeper With Directly-Trained Larger Spiking Neural Networks

郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! The Thirty-Fifth AAAI Conference on Artificial Intelligence (AAAI-21) Abstract 脉冲神经网络(SNN)在时空信息和事件驱动信号处理的生物可编程编码中很有前途,非 ......

论文解读(Moco v3)《An Empirical Study of Training Self-Supervised Vision Transformers》

论文信息 论文标题:Improved Baselines with Momentum Contrastive Learning论文作者:Xinlei Chen, Saining Xie, Kaiming He论文来源:2021 ICCV论文地址:download 论文代码:download引用次数: ......

迁移学习(IIMT)——《Improve Unsupervised Domain Adaptation with Mixup Training》

论文信息 论文标题:Improve Unsupervised Domain Adaptation with Mixup Training论文作者:Shen Yan, Huan Song, Nanxiang Li, Lincan Zou, Liu Ren论文来源:arxiv 2020论文地址:down ......
共132篇  :5/5页 首页上一页5下一页尾页