Now vibe coding, so learning hammer FE ?
《OpenAI Agents SDK:轻量级多智能体工作流框架》
标签:#AI #多智能体 #Python #OpenAI #MCP #智能体工作流 #LLM #实时语音 #沙箱环境
总结:
OpenAI Agents SDK 是一个轻量但功能强大的 Python 框架,用于构建多智能体工作流。它支持 OpenAI 的 Responses 和 Chat Completions API,同时兼容 100 多种其他 LLM,具有供应商无关性。框架围绕"智能体"这一核心概念展开,每个智能体都配备指令、工具、护栏和交接机制,让复杂任务可以像搭积木一样拆解协作。
文章要点:
- 智能体是核心乐高积木:每个智能体都自带"说明书"(指令)、"工具箱"(函数/MCP/托管工具)和"安全护栏"(输入输出校验),还能互相"交接"任务,像团队协作一样分工处理复杂流程
- 沙箱智能体让AI真正"动手干活":0.14.0 版本新增的 Sandbox Agent 能在容器环境里操作文件系统、运行命令、打补丁,适合需要长时间执行且要保留工作状态的"重体力"任务
- 人在回路,安全可控:内置了人类介入机制,在关键节点可以暂停流程等人来确认,避免AI"自作主张"搞出大新闻
- 全链路可观测:自带 Tracing 追踪系统,能可视化查看每个智能体的思考过程、工具调用耗时和 Token 消耗,方便调试和优化
- 不挑模型,兼容百家:虽然是 OpenAI 出品,但设计上保持中立,支持接入 100+ 种 LLM,包括通过 LiteLLM 等适配层接入国产模型
- 实时语音也能玩:支持用
文章URL:https://github.com/openai/openai-agents-python
标签:#AI #多智能体 #Python #OpenAI #MCP #智能体工作流 #LLM #实时语音 #沙箱环境
总结:
OpenAI Agents SDK 是一个轻量但功能强大的 Python 框架,用于构建多智能体工作流。它支持 OpenAI 的 Responses 和 Chat Completions API,同时兼容 100 多种其他 LLM,具有供应商无关性。框架围绕"智能体"这一核心概念展开,每个智能体都配备指令、工具、护栏和交接机制,让复杂任务可以像搭积木一样拆解协作。
文章要点:
- 智能体是核心乐高积木:每个智能体都自带"说明书"(指令)、"工具箱"(函数/MCP/托管工具)和"安全护栏"(输入输出校验),还能互相"交接"任务,像团队协作一样分工处理复杂流程
- 沙箱智能体让AI真正"动手干活":0.14.0 版本新增的 Sandbox Agent 能在容器环境里操作文件系统、运行命令、打补丁,适合需要长时间执行且要保留工作状态的"重体力"任务
- 人在回路,安全可控:内置了人类介入机制,在关键节点可以暂停流程等人来确认,避免AI"自作主张"搞出大新闻
- 全链路可观测:自带 Tracing 追踪系统,能可视化查看每个智能体的思考过程、工具调用耗时和 Token 消耗,方便调试和优化
- 不挑模型,兼容百家:虽然是 OpenAI 出品,但设计上保持中立,支持接入 100+ 种 LLM,包括通过 LiteLLM 等适配层接入国产模型
- 实时语音也能玩:支持用
gpt-realtime-1.5 构建语音智能体,把实时语音能力也纳入多智能体协作体系文章URL:https://github.com/openai/openai-agents-python
《基于Andrej Karpathy观察的Claude Code行为优化指南》
标签:#AI辅助编程 #ClaudeCode #LLM最佳实践 #代码质量
总结:该项目将Andrej Karpathy对LLM编程缺陷的观察转化为可落地的CLAUDE.md规范文件,通过"编码前思考、极简优先、精准修改、目标驱动"四大原则,系统性解决AI助手常见的过度假设、过度工程化和无关修改等问题,帮助开发者获得更精准、简洁、可控的AI编程辅助体验。
文章要点:
- 问题诊断:LLM常犯的错误包括擅自假设却不验证、过度复杂化代码、擅自修改无关代码等,Karpathy一针见血地指出了这些痛点
- 编码前思考原则:不确定时要主动提问而非猜测,有歧义时呈现多种解读,该拒绝时要敢于说"这样更简单"
- 极简优先原则:只做被明确要求的功能,不为单用场景造抽象,不把200行代码写成50行就算过关
- 精准修改原则:只碰该碰的代码,不动"看起来不顺眼"的邻居代码,自己的烂摊子自己收拾,但别碰别人留下的
- 目标驱动原则:把"加个验证"改成"写测试让非法输入失败,再让它通过",给AI明确的验收标准,它会自己循环到达标
- 使用方式:支持Claude Code插件一键安装,或下载CLAUDE.md文件到项目根目录,Cursor用户也有对应规则文件可用
- 取舍提醒:这套规范偏向谨慎而非速度,简单改错别字不必上全套,但复杂任务能帮你避开返工噩梦
文章URL:https://github.com/forrestchang/andrej-karpathy-skills
标签:#AI辅助编程 #ClaudeCode #LLM最佳实践 #代码质量
总结:该项目将Andrej Karpathy对LLM编程缺陷的观察转化为可落地的CLAUDE.md规范文件,通过"编码前思考、极简优先、精准修改、目标驱动"四大原则,系统性解决AI助手常见的过度假设、过度工程化和无关修改等问题,帮助开发者获得更精准、简洁、可控的AI编程辅助体验。
文章要点:
- 问题诊断:LLM常犯的错误包括擅自假设却不验证、过度复杂化代码、擅自修改无关代码等,Karpathy一针见血地指出了这些痛点
- 编码前思考原则:不确定时要主动提问而非猜测,有歧义时呈现多种解读,该拒绝时要敢于说"这样更简单"
- 极简优先原则:只做被明确要求的功能,不为单用场景造抽象,不把200行代码写成50行就算过关
- 精准修改原则:只碰该碰的代码,不动"看起来不顺眼"的邻居代码,自己的烂摊子自己收拾,但别碰别人留下的
- 目标驱动原则:把"加个验证"改成"写测试让非法输入失败,再让它通过",给AI明确的验收标准,它会自己循环到达标
- 使用方式:支持Claude Code插件一键安装,或下载CLAUDE.md文件到项目根目录,Cursor用户也有对应规则文件可用
- 取舍提醒:这套规范偏向谨慎而非速度,简单改错别字不必上全套,但复杂任务能帮你避开返工噩梦
文章URL:https://github.com/forrestchang/andrej-karpathy-skills
《Karpathy把私藏的知识管理方法开源了:让LLM帮你维护Wiki,自己只管提问》
标签:#AI #知识管理 #LLM_Knowledge_Base #Personal_Wiki #Obsidian #RAG #Agent
总结:
Andrej Karpathy 分享了他用 LLM 管理个人知识库的方法:将原始资料放入只读目录,由 LLM 自动生成和维护结构化的 Wiki,再通过 Obsidian 查看。这套"摄入-查询-检查"工作流让他在小规模数据下无需 RAG 也能高效检索,更重要的是体现了 AI 时代的新范式——分享想法而非代码,让每个人的 Agent 按需实现。这对知识工作者如何从"操纵代码"转向"操纵知识"具有启发意义。
文章要点:
- **三层架构设计超清晰**:原始资料放在
- **四个核心操作好懂又实用**:Ingest(新资料进来时 LLM 自动更新相关页面)、Query(日常提问让 LLM 去 Wiki 里搜索综合回答)、Lint(定期检查知识库有没有矛盾或遗漏)、Extra Tools(比如 vibe coding 的小搜索引擎)。整个知识库会越用越丰富~
- **为什么不用 RAG?Karpathy 的回答很实在**:他的知识库大约 100 篇文章、40 万字,在这个量级下 LLM 自己维护的索引和摘要已经够用了,不需要复杂的向量检索。Wiki 本身就是一种"压缩过的知识表示"
- **从"分享代码"到"分享想法"**:他把这套方法写成"idea file"公开,认为在 Agent 时代,清晰的思路比具体代码更有价值。每个人把自己的 Agent 叫来,照着这个想法文件就能搭出适合自己的版本
- **工作重心正在悄悄转移**:Karpathy 说他最近的 token 消耗从"写代码"大幅转向"操纵知识"。这对咱们知识工作者也是个信号——让 LLM 当长期的知识管家,而不只是临时问答工具,效率会更高呢!
文章URL:https://mp.weixin.qq.com/s/EoGLi067d_3huZf-X0Q6Fg
标签:#AI #知识管理 #LLM_Knowledge_Base #Personal_Wiki #Obsidian #RAG #Agent
总结:
Andrej Karpathy 分享了他用 LLM 管理个人知识库的方法:将原始资料放入只读目录,由 LLM 自动生成和维护结构化的 Wiki,再通过 Obsidian 查看。这套"摄入-查询-检查"工作流让他在小规模数据下无需 RAG 也能高效检索,更重要的是体现了 AI 时代的新范式——分享想法而非代码,让每个人的 Agent 按需实现。这对知识工作者如何从"操纵代码"转向"操纵知识"具有启发意义。
文章要点:
- **三层架构设计超清晰**:原始资料放在
raw/ 目录保持只读,LLM 自动读取并编译成结构化的 Wiki 文档,最后用 Obsidian 当查看器来展示。整套系统就像"原料→加工厂→展示厅"一样分工明确!- **四个核心操作好懂又实用**:Ingest(新资料进来时 LLM 自动更新相关页面)、Query(日常提问让 LLM 去 Wiki 里搜索综合回答)、Lint(定期检查知识库有没有矛盾或遗漏)、Extra Tools(比如 vibe coding 的小搜索引擎)。整个知识库会越用越丰富~
- **为什么不用 RAG?Karpathy 的回答很实在**:他的知识库大约 100 篇文章、40 万字,在这个量级下 LLM 自己维护的索引和摘要已经够用了,不需要复杂的向量检索。Wiki 本身就是一种"压缩过的知识表示"
- **从"分享代码"到"分享想法"**:他把这套方法写成"idea file"公开,认为在 Agent 时代,清晰的思路比具体代码更有价值。每个人把自己的 Agent 叫来,照着这个想法文件就能搭出适合自己的版本
- **工作重心正在悄悄转移**:Karpathy 说他最近的 token 消耗从"写代码"大幅转向"操纵知识"。这对咱们知识工作者也是个信号——让 LLM 当长期的知识管家,而不只是临时问答工具,效率会更高呢!
文章URL:https://mp.weixin.qq.com/s/EoGLi067d_3huZf-X0Q6Fg