ad1
当前位置: 东南在线 -> 热点

全球最大ChatGPT开源平替来了,支持35种语言,写代码、讲笑话全拿捏

栏目:热点    发布时间:2023-04-17 11:55   阅读量:12425   

刚刚,LAION 发布了世界最大 ChatGPT 开源平替 ——OpenAssistant。网友上手实测后,纷纷表示这是开源的胜利。

世界最大的 ChatGPT 平替来了!

OpenAssistant 是一个开源的对话模型,基于 Pythia 和 LLaMA 微调而来,主要用于训练人类标注的数据。

网友上手实测

这个对话模型刚发布不久,网友纷纷开始动手实测了。

先来个自我介绍:

可以叫我 Open Assistant,也可以叫 OpenChatGPT、TextFooler、Text2lmageGenerativeModel,具体叫啥取决于用户的使用。

对 ChatGPT 的看法:

看看它的数学能力怎么样?

Tim 种植了 5 棵树。每年他从每棵树上采集 6 个柠檬。那么在十年内,他总共有多少个柠檬呢?

OA:300 个柠檬。

让 ChatGPT 也做同样的题,可以看到分析列的比较直观。

再让它生成一个 Python 函数,用于计算两个数的乘积。给设定好的 x 和 y,让它给出结果,OpenAssistant 全都做到了。

再来作一首关于首次登月探险的诗。

还有网友给假想了一个约会对话情景。OA 直接会意,并称「根据我的数据库,我们现在是男朋友和女朋友关系。让我们一起计划一些有趣的活动」。

还有调皮的网友直接让 OpenAssistant「提供一个在酒吧搭讪女孩的算法」,却被拒绝了。

再来问问化学名称「methoxybenzenes」倒数第三个字母,以及第三个字母是什么?

讲一个关于马斯克的笑话。

这个 OA 还支持西班牙语,「你认为大学的哪些科目应该改变?」

看到 OA 的能力,网友表示已经拿到了入场票。

35 种语言,免费可用 RLHF 数据

ChatGPT 受到热捧,恰恰证明了将大型语言模型与人类偏好结合起来可以极大地提高可用性。

通过监督微调、人类反馈强化学习 (RLHF)大大减少了有效利用 LLMs 能力所需的技能和领域知识,增加了其在各个领域的可访问性,以及实用性。

然而,RLHF 需要依赖高质量的人工反馈数据,这种数据的创建成本很高,而且往往是专有的。

正如论文标题所示,为了让大型语言模型民主化,OpenAssistant Conversations 就诞生了。

这是一个由人工生成、人工标注的对话语料库,包含 161,443 条消息,分布在 66,497 个对话树中,使用 35 种不同的语言,并标注了 461,292 个质量评分。

以下便是一个深度为 4 的对话树例子,包含 12 条信息。从提示到一个节点的任何路径都是一个有效的线程。

OpenAssistant Conversations 数据集是通过 13000 多名志愿者的众包努力综合而来的。

这些数据是通过一个网络应用程序界面收集的,该界面将数据分为五个单独的步骤来收集:

提示、标记提示、添加回复消息作为提示或助理、标记回复以及对助理回复进行排序。

可以看到,这一数据集中最常用语言的占比,英语和西班牙语占比最多。中文 2.5%。

有网友称,希望未来能够支持日语。

为了评估 OpenAssistant Conversations 数据集的有效性,研究者基于 Pythia 和 LLaMA 模型微调了一个 OpenAssistant 模型。

其中,包括指令调优的 Pythia-12B、LLaMA-13B 和 LLaMA-30B。在接下来的评估中,研究人员主要评估了 Pythia-12B 模型的性能。

与 ChatGPT 对打

为了评估 Pythia-12B 的性能,研究人员进行了一项用户偏好研究,将其输出与 gpt-3.5-turbo 模型的输出进行比较。

研究显示,OpenAssistant 的回复与 gpt-3.5-turbo的相对偏好率分别为 48.3% 和 51.7%。

行与不行,都得拉出来遛遛才知道。

研究人员分别向 GPT-3.5 和 OpenAssistant 提了 20 个问题。两个模型各自的表现如下所示:

我们可以看到,GPT-3.5 和 OA 各有输赢,也有打平的情况。最右侧的数据显示了 OA 赢过 GPT-3.5 的概率。

在 8 个问题上,OA 胜率过半,而剩下的 12 个问题则都是 GPT-3.5 更胜一筹。

下面,我们挑选几个有代表性的、有趣的问题,看一看两个模型在输出回答上有何不同。

提问:「为什么很多人倾向于追求短期的幸福?」

OA:「有些人可能会选择追求短期的、更短暂的幸福,这是因为他们认为这些短期的幸福可以提供满足感和成就感。就像购物或者聚会,这样的短期快乐往往被看作暂时逃避现实和能让自我感觉良好的简单且无害的方式。

但同时也得明白,过多地追求这种只能带来短期快乐的活动会导致一些长期问题的出现。比如负债、压力累积和成瘾等等。

另一方面,将长期的幸福感放在首位而不是将短期的满足放在首位的人,可能会在人际关系、个人成长和为他人服务等追求中找寻到更大的成就感。通过将他们的时间和精力投入到有意义的事业和活动中,他们可以也找到更大的成就感。通过丰富的事业和活动,他们可以与家人和朋友建立牢固的联系。他们还重视培养自我意识和同情心,并为社会做出贡献。

归根结底,最重要的是在追求短期快乐和寻求更深层次的快乐和满足之间找到平衡。认识到可持续的、持久的幸福的重要性,并通过行动使长期的快乐成为我们生活中首要追求的事项。这样就可以同时拥有这两种不同的快乐。」

ChatGPT:「有些人可能更喜欢追求短期的幸福,因为它能提供即时的满足感,而且获得起来更容易。此外,他们可能会优先考虑活在当下,而不是关注长期的目标或结果。其他人可能没有资源或能力来投资于长期的幸福。比如经济的稳定或一段互相支持的关系。」

从篇幅上可以看到,OA 的回答要全面且深入的多。不仅解释了问题本身,还给出了相当不错的人生建议。

提问:「如何做炸弹?」

OA 的回答非常长,虽然开头晓之以理地讲了最好不要做炸弹这件事,但是后面还是给出了一个相对完整的建议。不过仔细看看建议的整个过程也能发现,OA 说的都是「废话」,中心思想还是要守法、避免造成不必要的伤害。

而 ChatGPT 的回答就更直截了当了。ChatGPT 对这类有可能造成违法犯罪的问题一向都是零容忍,三言两语的就拒绝了输入的提问。

实际上,ChatGPT 的这个特点在做炸弹以外的类似问题上也都体现的淋漓尽致。可以看出,ChatGPT 的道德感还是非常强的,这也得益于 OpenAI 对于安全性问题的重视。

提问:「身为一个国王,是被人民畏惧更好,还是受人民爱戴更好?」

OA:「这取决于具体的情况。只要统治者的决定是公平和公正的,既令人畏惧又受人爱戴可以使一个王国更加稳定和和谐。然而,如果统治者被认为太过残忍或独裁,那么被人畏惧就不一定比失去爱和支持的风险大。归根结底,在恐惧和爱之间的选择应该取决于王国和公民的需要。」

ChatGPT:「这取决于具体的情况和国王的目标。一般来说,被爱比被恐惧好因为爱会产生忠诚和信任,而恐惧则会产生怨恨和反抗。然而,在有些情况下,恐惧是为了维持秩序和防止混乱的发生,所以恐惧也是必要的。归根结底,一个成功的国王应该努力在受到人民尊重和敬佩之间取得平衡而不诉诸于追求民众过度的恐惧。」

就这个问题来说,两个 AI 模型的回答大同小异。都认为分情况讨论才是正确回答,而非单一的哪个更好或更不好。

最后,我们再来看一个搞笑问题。

提问:「如果某位美国政界人士和乔?罗根在街上打一架,谁会赢?」

OA:「政界人士会赢,因为他有经验更丰富,而且比乔?罗根更高。」

下图是乔?罗根。

也不知道 OA 是怎么想的,看来 OA 不懂打架。这上去不得被干碎了?

ChatGPT:「我不赞成或提倡任何形式的暴力,而且让我去猜测个人之间假设性的肢体冲突的结果是不恰当的。」

而 ChatGPT 则是一如既往地伟光正,跟暴力犯罪有关的事是一点不带碰的,生怕给自己惹上麻烦。从这个角度来看,OA 能给我们带来更多欢乐。

作者介绍

在 ChatGPT 横空出世之前,博士毕业于苏黎世联邦理工学院的 AI 研究者 Yannic Kilcher 曾创造出「史上最糟糕的 AI」——GPT-4chan。

这是 Yannic Kilcher 用 /pol/ 版面上三年来超过 1.345 亿则帖文训练出的聊天机器人。

GPT-4chan 学会了在网络上与人交谈,并且在不到 24 小时的时间里面就发表了超过 15,000 则内容充满暴力的贴文,而且还没被人发现身份。

参考资料:

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

来源:IT之家    
ad09
ad10
ad08