Build with Claude
by Aaron Tsui
今天有时间系统的回顾一下大模型,对于开发人员负能的整体情况。目前业绩最顶尖的Anthropic上的build w/ claude比较系统的讲解了这方面的知识。
最开始ChatGPT火爆的时候,作为开发人员,大概能够想到他的后端是什么样子的——传统的API方式。但是由于当时模型水平的限制,比如上下文长度不够,催生了类似于prompt engineer的职位。虽然类似的职位目前已经销声匿迹了但是人类与大源模型交互的本质还是通过prompt当我们能够与大模型进行语言的交流,以后,我们希望大模型能够做一些操作方面的事情,于是就出现了大模型的tool use在这些炫酷的电脑等操作。之后,对于企业来说,RAG这样的大模型使用方式火爆了很长一段时间。
在此之后不管是个人还是企业都对使用AI放下了顾虑,虽然大模型的能力还在不断地进步,但是如何正确和高效的使用大模型,了解他的多模态能力,提示词缓存降低成本技术,以及reasoning和thinking越来越重要。
然后随着大模型的继续深入专业领域人士,比如码农对于大模型的编程能力要求越来越高,也直接催生了向MCP这样扩展模型能力的标准协议。当然有了MCP的标准以后使用编程的各种工具能够完成更多的任务。
除了在编程领域,LLM还在使用agent和workflow继续探索其他的使用场景。
未来五年可以遇见大模型的能力还是会不断地增长,但是为了应对边际效应的快速下降更多的应用场景,以及再深入一些的如何正确使用将会变得更加重要。作为个人还是应该继续紧跟发展趋势在过程中使用目前成熟的代码工具将资产固化,并探索更加适合于自己的落地场景。
tags: hello - notes