ChatGPT开发者视角下的新插件机制浅析

ChatGPT 开发者 机制 2024-02-04 61
ChatGPT最近推出了插件机制。对于普通用户来说,这可能只是另一种引入插件系统的产品。然而,从开发者的角度来看,其实现机制是颠覆性的,具有处理分散互联网互操作问题的潜力。

这一切的起源可以追溯到Web 2.0时代,当时是基于Open的 APIMashup应用流行一段时间。21世纪初,在互动互联网发展初期,几乎每一个新兴的互联网应用都推出了自己的Open API,响应“开放”的互联网精神。许多应用程序也将与其他Open对接 API,他们不懈地用代码和汗水来建造一座连接API的桥梁。

在Open之后 随着互联网用户对极客化的要求越来越低,人们开始追求稳定可靠的互联网应用程序,而不是精彩的互联网应用程序。这些巨头开始建造“高墙”,用商业合作代替Open API,取代它的连锁反应是开放思想逐渐被遗忘,只是一种营销策略。

ACPI设计不需要特别仔细的设计,因为API的调用方不再是前极客开拓者,而是普通程序员。SOAP、Restful、Stateless等曾经风靡一时的API框架逐渐被OAuthh、gRPC、GraphQL等替代品,API研究的重点也转向了安全性、效率和控制,而“开放”则成为一个很少有人咨询的研究领域。

Open API在等待互联网世界的回归。Web 3.0和AI是其归来的靠山?

在Open人工智能推出ChatGPT插件机制之前,作者一直在思考“自我解释API设计”和“API演变模式”。前者解决了API呼叫依赖于开发人员阅读和理解其API文档的问题,后者确保了API在开放生态系统中的后向兼容性和扩展灵活性。

然而,OpenAI以人工智能为主,借助LLM强大的自然语言理解能力和大量的“文档” 代码词库,试图重写以开发为核心的API对接方式。它试图让人工智能像人类开发者一样阅读API文档,并根据文档生成API呼叫代码。这种继承传统API呼叫工作流的路径无疑非常低。

虽然ChatGPT插件机制在推广中引入了人工智能,但它本质上仍然是一个障碍中的平台API。未来能否影响开放互联网API对接的普遍方式还有待进一步观察。

可以肯定的是,这种基于LLM的API调用模式将大大降低互联网老板与大量外部API对接的开发和运维成本。同时,对促进互联网开放也具有积极意义。

另一方面,基于LLM的API调用从根本上改变了“平台”与“插件”之间的约束关系。过去,为了支持插件,平台需要首先定义接口,让插件开发人员探索应用领域,并根据接口进行设计。而ChatGPT插件开发者只需提供“能力”并定义API(符合ChatGPT的交互模式),ChatGPT在与用户的交互中探索应用领域。随着“平台”与“插件”约束关系的变化,两者的权力结构也发生了变化。

在传统的插件模式中,平台定义了具体的游戏规则,并以流量换取了插件对其用户体验的承诺,这是双方的共生关系。在ChatGPT主导的插件模式中,平台假装是一个谦虚的君主,让插件文档调用API,实际上是把插件变成了一个“大臣”。

OpenAI之所以引入这种权力关系极不平衡的插件方式,可能是基于以下两个原因:

1. 传统的交互形式与ChatGPT相去甚远。如果插件承担下游用户的体验,可能会给用户带来不良变化的感觉。

2. 在OpenAI看来,与ChatGPT相比,传统应用就像工具与人之间的关系,自然会鄙视其他应用,在心态上“物化”。

相关推荐