张路宇,Dify 创始人兼 CEO
OpenAI 发布ChatGPT的那个夜晚,我极其兴奋地与“她”聊到了凌晨三四点,一个朴素的聊天框满足了过去十多年我对AI生产力的幻想!以GPT-4为代表的大语言模型(LLM)的迅速发展,对于所有开发者乃至知识工作者而言都是一个崭新的起点,是“以一敌十”的生产力神器,也拉开了涌现AI原生应用舞台的序幕。
LLM 技术和基于 LLM 的应用(以下简称 LLM 应用)正在以“天”为单位快速发展。过去这段时间,我和团队接触了数千名对开发 LLM 应用报以热情的开发者,与大家一同解锁 LLM 技术栈的潜力,其中不乏有创业者快速收获用户、获得融资并在几个月内获得了声望(Dify 或许也是幸运儿之一);也有开发者在使用 LLM 提升现有应用及团队工作流。我们可以看到的数据是:一方面,LangChain 仅在中国的开发者用户占比就高达全部用户的 40% 以上;但另一方面,我们感受到 LLM 应用开发者占据中国全部开发者的比重还很低,LLM 应用开发在中国还处于早期。
作为经历过 Web 1.0 时代和 Web 2.0 时代的技术人,我深知“早期”二字意味着稀缺的机遇。
社区开发者讨论得最多的两个问题是:
图灵公司引进出版了 O'Reilly 的《大模型应用开发极简入门:基于GPT-4和 ChatGPT》,你大概一个下午就可以读完这本小册子,对上述两个问题建立总体认识,并动手完成自己的第一个基于GPT-4的应用。如此短小精湛的书甚至还包含 LLM 原理的介绍和提示工程的技巧。我甚至认为今后的技术书都应该“这样”,因为你可以结合与ChatGPT互动问答的方式更高效地学习。
不知你是否有过组装计算机的经历?如今 LLM 应用技术栈中的模型(例如 GPT-4)就相当于其中的 CPU,开发框架(例如 LangChain 或 Dify)则相当于主板,而内存、向量存储、插件就好比主板上的各种 I/O 设施。正如组装计算机一样,开发者在构建 LLM 应用时也需理解、精心挑选和配置每个组件。
如果要掌握这个全新的技术栈,最佳的方式便是结合问题,跟着好奇心动手试试,我敢和你说这绝对是一段有趣、有启发、有收获的冒险旅程!