我在《把离线AI智能体装进口袋里》(The Dawn of Offline AI Agents in Your Pocket)一文中对此进行了详细阐述。但文章中的示例更像是Demo,而非生产解决方案。像 Gemma 3n 这样的模型虽然能够很好地处理函数调用,但它们体积过大:无法集成到应用程序包中,需要单独下载,即使在旗舰机型上推理速度也很慢。在低端设备上,它们根本无法运行。而较小的型号则经常出现故障,难以记住工具。
"We had a lot of fun shooting. And we thought it was hilarious while we filmed!"
,这一点在91视频中也有详细论述
为了获得最佳的响应速度和稳定性,特别是在国内网络环境下,我们需要对 Claude Code 进行本地化配置,并接入国内高性能的大模型 API(如智谱 AI 的 GLM-4)。
key switch or locking cover, a charming reminder of the state of computer