如今想真正做好 AI,你得成为智能体部署专家
文章认为,AI 应用已经经历了几个阶段:从早期必须具备较强技术能力,才能从原始大模型 API 中获得可用结果;到后来更多人开始接触和使用;再到当下,真正稀缺的能力变成了把“智能体”实际部署到业务流程中并稳定落地。作者强调,今天要想真正受益于 AI,不只是会使用模型,而是要成为擅长智能体部署与应用实施的人,但具备这种能力的人仍然很少。
Tag
围绕 本地大模型 这个主题,opc.ren 当前收录了 5 篇相关文章。
文章认为,AI 应用已经经历了几个阶段:从早期必须具备较强技术能力,才能从原始大模型 API 中获得可用结果;到后来更多人开始接触和使用;再到当下,真正稀缺的能力变成了把“智能体”实际部署到业务流程中并稳定落地。作者强调,今天要想真正受益于 AI,不只是会使用模型,而是要成为擅长智能体部署与应用实施的人,但具备这种能力的人仍然很少。
文章介绍了Dan Woods的研究:基于苹果“LLM in a Flash”,让定制版Qwen3.5-397B-A17B在48GB内存的MacBook Pro M3 Max上实现本地运行并达到5.5+ tokens/second。
文章借“消息清淡”的一天,回顾并讨论 Anthropic 在 Gemini 和 OpenAI 之后,才正式普及 100 万上下文窗口这一进展及其意义。
作者此前认为多种大模型工具效果很差:Copilot 只会写冗长注释,Gemini 把 200 行脚本膨胀成 700 行乱码,因此长期忽视 LLM。
文章称如今本地运行大模型在个人硬件上已成现实,从缩小版 DeepSeek 到 gpt-oss-20b 等选择不少,但作者认为这些模型整体仍明显落后于前沿模型,并调侃本地 LLM 成了为不必要的大电脑找理由。