如今想真正做好 AI,你得成为智能体部署专家
文章认为,AI 应用已经经历了几个阶段:从早期必须具备较强技术能力,才能从原始大模型 API 中获得可用结果;到后来更多人开始接触和使用;再到当下,真正稀缺的能力变成了把“智能体”实际部署到业务流程中并稳定落地。作者强调,今天要想真正受益于 AI,不只是会使用模型,而是要成为擅长智能体部署与应用实施的人,但具备这种能力的人仍然很少。
Tag
围绕 模型 这个主题,opc.ren 当前收录了 10 篇相关文章。
文章认为,AI 应用已经经历了几个阶段:从早期必须具备较强技术能力,才能从原始大模型 API 中获得可用结果;到后来更多人开始接触和使用;再到当下,真正稀缺的能力变成了把“智能体”实际部署到业务流程中并稳定落地。作者强调,今天要想真正受益于 AI,不只是会使用模型,而是要成为擅长智能体部署与应用实施的人,但具备这种能力的人仍然很少。
文章聚焦近期模型进展,提到 MiniMax 2.7 以约三分之一成本达到领先开源模型水准,并提及 GLM-5。原文摘录信息较少,主要是在简要庆贺相关发布。
文章介绍了Dan Woods的研究:基于苹果“LLM in a Flash”,让定制版Qwen3.5-397B-A17B在48GB内存的MacBook Pro M3 Max上实现本地运行并达到5.5+ tokens/second。
文章探讨大型语言模型是否能预测物理实验结果,以“向陶瓷咖啡杯倒入8盎司沸水”的场景为例提出问题。
文章称山姆·奥特曼承认仅靠规模化不足以达到AGI,需要重大突破和新架构。
文章借“消息清淡”的一天,回顾并讨论 Anthropic 在 Gemini 和 OpenAI 之后,才正式普及 100 万上下文窗口这一进展及其意义。
文章讨论为大语言模型设定“个性”或行为风格的工程考量及其价值。
作者此前认为多种大模型工具效果很差:Copilot 只会写冗长注释,Gemini 把 200 行脚本膨胀成 700 行乱码,因此长期忽视 LLM。
作者继续在完成《Build a Large Language Model (from Scratch)》后做“加分”项目,回顾上次使用书中 GPT‑2 架构在 Lambda Labs 上训练四个基础模型,并进一步分析“LLM 作为评判者”的结果。
文章以3D打印微缩模型为例,讨论技术产品常把“能力提升”误当成“用户真正想要的东西”,并反思技术叙事与实际使用需求之间的落差。