- 花一天读完 OpenHarness:一个 11,733 行的 Agent Harness 到底长什么样
HKUDS 实验室刚刚开源了 OpenHarness,这是一个对标 Claude Code 的 Agent Harness 实现。本文是我花一天时间读完它核心架构的学习笔记,从 CLI 启动到 Agent Loop,完整走读 Phase 1。
23 min read - Inside OpenHarness: A One-Day Code Walkthrough
My one-day study notes on OpenHarness, a Claude Code-inspired Agent Harness in Python. Covering CLI launch to the Agent Loop.
17 min read en - 一个大二实习生的 Agent 开发面试修炼手册
面了近 10 家 AI 创业公司后,聊聊 Agent 岗面试到底在考什么,以及那些比背答案重要一百倍的事
30 min read - A Sophomore Intern's Playbook for Agent Dev Interviews
After interviewing at nearly 10 AI startups, here is what Agent roles actually test — and what matters 100x more than memorizing answers
18 min read en - FeedForward与Transformer Block:Attention之外的另一半
深入解析 FeedForward 前馈网络,以及如何将 RMSNorm、RoPE、Attention、FeedForward 四大组件组装成完整的 Transformer Block。读完本文,你将彻底掌握 Transformer 的完整架构
22 min read - 深入理解Attention机制:从Q、K、V到Multi-Head
深入解析 Attention(注意力机制)—— Transformer 的核心引擎。用数据库查询的类比,彻底理解 Q、K、V 的含义,掌握 Multi-Head Attention 的实现,并澄清 Softmax 与 RMSNorm 的常见混淆
19 min read - RoPE位置编码:从排列不变性到多频率机制
深入解析 RoPE(Rotary Position Embedding)—— 现代大语言模型位置编码的标配方案,从数学原理到工程实现,特别是浮点数精度问题的深入分析
17 min read - 为什么Transformer需要归一化?从梯度消失到RMSNorm
深入探讨为什么深层神经网络需要归一化,以及 RMSNorm 如何成为现代 LLM 的标配
14 min read
Blog
Page 1 - Showing 8 of 10 posts
View all posts by years →