OpenAI的新聊天机器人解释它是什么以及为什么如此重要

导读 OpenAI 正在开发一种新的聊天机器人,它本质上比机器人更健谈,但它不仅仅是一个对话共鸣板。非营利性人工智能公司 OpenAI 于 2015 年

OpenAI 正在开发一种新的聊天机器人,它本质上比机器人更健谈,但它不仅仅是一个对话共鸣板。非营利性人工智能公司 OpenAI 于 2015 年由科技企业家 Elon Musk 及其现任首席执行官 Sam Altman 等人创立。从那时起,该公司一直负责开发各种机器学习模型,包括DALL-E,一种能够创造用户定义艺术的人工智能。然而,OpenAI 的一些测试不仅挑战机器跳出框框思考,还可以让它们自己创建框框……好吧,至少是数字化的。这几乎就是今年早些时候公司教 AI 机器人玩“我的世界”时发生的事情结果令人惊讶。通过使用价值数千小时的“我的世界”视频训练人工智能,它能够比普通人更快地执行游戏中的任务。

也就是说,其改进后的 ChatGPT 聊天机器人模型希望完成类似的事情,尽管具有改变行业的影响。除了通常的聊天机器人功能外,OpenAI 的模型还可以通过提供有关特定查询的综合信息来帮助人类,而且只需他们自己进行研究所需的时间的一小部分。通过使用人类反馈强化学习 (RLHF),AI 不仅被训练以更自然的对话语气说话,而且还避免做出被认为“有害和不真实”的反应(通过OpenAI)。不过,在准备好实现其充满希望的未来潜力之前,聊天机器人仍然存在一些需要首先解决的缺陷。

是的,OpenAI 的 ChatGPT 能够迅速提供冗长的答案,而且听起来也不像毫无生气的自动机。然而,它的反应是否准确则是另一回事。据The Verge称,尽管听起来很有说服力,但一些测试人员确定聊天机器人的一些回答实际上充满了不准确之处。这是阻止它成为搜索引擎可行替代方案的一个主要障碍。获取快速但虚假的信息似乎违反直觉,但聊天机器人也受到其他限制(通过OpenAI)。其中之一是它倾向于提供过于冗长的响应,通常会导致难看的文本墙。

它对措辞也很敏感,拒绝提供正确的答案,直到以可以正确消化的方式重新措辞查询。仅仅因为 ChatGPT 经过训练可以和蔼可亲地帮助人类,并不意味着它也不会被欺骗而听起来很恶作剧,一名测试人员成功说服它以迂回的方式提供有害建议。虽然它目前的状态可能仍然有所欠缺,但这并不影响聊天机器人在不久的将来的潜在应用。从充当客户支持或交互式个人助理,ChatGPT 的快速响应时间、详细的答案和模拟的人际交往能力肯定会派上用场。那些渴望了解服务行业未来可能走向何方的人可以联系 ChatGPT他们自己。让我们只希望这个 AI 模型不要忘记它的礼貌;毕竟,聊天机器人很容易发出野蛮的侮辱。