【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!

发布时间 2023-08-07 10:24:27作者: 努力的小雨

阿里云于8月3日宣布开源两款重要的大型模型——QWen-7B和QWen-7b-Chat。这两款模型的参数规模达到了令人瞩目的70亿,并且已经在Hugging Face和ModelScope平台上开放,并可免费商用。以下是相关链接:

GitHub项目主页:https://github.com/QwenLM/Qwen-7B
Hugging Face:https://huggingface.co/Qwen/Qwen-7B-Chat
ModelScope:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary/
TopGpt:https://www.topgpt.one

事实上,阿里云在今年4月份推出了通用问答聊天机器人,算得上是较早的开发者。然而,在早期阶段,该项目采用了内部测试制度,因此对外开放的用户数量并不多。

时至今日,已过去了将近4个月的时间,国内的大型模型发展已经形成了一场激烈的竞争战。而此时,阿里云选择在开源领域继续前进,对于用户来说,无疑是喜闻乐见的消息。

阿里云之所以选择开源这两款模型,是因为开源模型能够赢得用户的支持。开源的优势在于能够吸引更多的开发者参与其中,共同改进模型的性能和功能。

同时,开源模型也能够避免封闭式的开发,引起他人的关注和审查。这对于保护用户的隐私和数据安全非常重要。如果模型不开源,可能会引发人们对于模型中是否存在安全漏洞或潜在风险的担忧。

当然,现在大型模型的热度可能有所下降,但阿里云选择开源模型仍然是为了保持竞争力。开源模型不仅可以吸引更多的用户,还可以通过众包的方式快速获得反馈和改进。

快速入门文档

在本地使用需要先安装环境,您也可以直接获取官方镜像安装在本地。

下载并安装ModelScope library

更多关于下载安装ModelScope library的问题参考环境安装

pip install modelscope

模型加载和推理

更多关于模型加载和推理的问题参考模型的推理Pipeline。

import os
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

model_id = 'qwen/Qwen-7B-Chat'

pipe = pipeline(
            task=Tasks.chat, model=model_id, device_map='auto')
history = None

text = '浙江的省会在哪里?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
text = '它有什么好玩的地方呢?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
"""
Response: 浙江的省会是杭州。
Response: 杭州是一座历史悠久、文化底蕴深厚的城市,拥有许多著名景点,如西湖、西溪湿地、灵隐寺、千岛湖等,其中西湖是杭州最著名的景点,被誉为“天下第一湖”。此外,杭州还有许多古迹、文化街区、美食和艺术空间等,值得一去。
"""

image

使用

当然,你也可以直接在modelscope平台使用Qwen-7B-Chat模型,地址链接:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary

image

拿来比较发现,确实还是逊色很多,毕竟还是刚开源阶段,但我相信总有一天国内的大模型可以媲美;

image

结语

最后,我想分享一下对于QWen-7B/QWen-7b-Chat的个人看法。近期,大型模型的热度逐渐消退,这也是有原因的。我认为,这主要有两个方面的原因。

首先,用户的新鲜感逐渐减弱。起初,很多用户因为好奇心而去尝试各种新产品,但随着可供选择的产品越来越多,并且经过长期的使用和体验,大型模型逐渐失去了其"神秘感"。然而,尽管新鲜感逐渐消退,仍然有一部分用户真正希望通过人工智能提升生产力,这部分用户占比并不大。

其次,市场投资者对于AI大型模型的热情也逐渐降温。一方面,这受到用户数量增长趋于平缓的影响,另一方面,目前的大型模型还没有找到良好的发展路径和盈利模式。

然而,对于互联网公司来说,面对人工智能和AI的不可阻挡的发展趋势,大型模型的研发是一条不能放弃的道路。你可以做得不好,但不能没有所作为。在这种情况下,像阿里云这样选择采用开源模型来维持在领域中竞争地位的公司,无疑是一个不错的选择。

这一点可以参考OpenAI,他们在逐步走向商业化之后,选择了不开源,甚至在GPT-4模型发布后,其模型结构、参数和训练细节等都不再对外公开,以至于很多人戏称OpenAI应该改名为CloseAI。然而,越是不开源,越是吸引他人的关注,最终可能导致自身形象受损。最近发生的GPT-4模型信息泄露事件就是很好的例子,有人在网上泄露了一份详细解析GPT-4技术细节的文档,尽管OpenAI并未做出任何回应,但很多人都认为这份文件应该是真实的。

综上所述,开源模型能够赢得用户的支持,并且能够避免引起他人的关注和潜在风险。阿里云选择开源QWen-7B和QWen-7b-Chat模型,既能保护用户的隐私和数据安全,又能提高模型的性能和功能。我期待着看到这两款模型在未来的发展中取得更大的成功。