#01 · Trust Boundary
信任邊界
哪些 input 可信?什麼時候 LLM output 變成 instruction?
對應 OWASP
LLM01 Prompt Injection / ASI01 Goal Hijack
首篇規劃
Indirect Prompt Injection 識別與防護
邊界實驗室 · Boundary Lab
給已會寫 code 的工程師、PM、TPM 補 AI 時代資安通識——不教 SOC、不打紅藍隊、不準備認證,教你在實作 AI 應用時怎麼畫對邊界。
你是不是也遇過:公司 ban 了 AI 工具,但你私下 side project 還是狂用,怕出事又不知道怎麼設邊界?把 RAG 接公司知識庫但完全沒人在意 source 可信度?讓 Agent 讀 email 結果中 prompt injection?看完 Anthropic MCP CVE 想 harden 自己的 server 卻不知從何下手?這些不是「資安團隊的事」,是 build AI 的人自己要懂的。這個平台教你在實作 AI 應用時怎麼畫對 trust boundary / data boundary / agent autonomy boundary——不嚇人、不堆 CVE、不要求你考認證。
Focus
在實作 AI 應用時,畫對五道邊界
Audience
已會寫 code 的工程師、PM、TPM。不需資安背景,不準備認證。
Approach
每篇技術文章帶 lab-confirmed 標記——來自 Maki 個人 PKI(mk-brain / ERIKA / Inbox Bot)真實 production 經驗。
The Five Boundaries
每一道邊界都對應 OWASP 的具體威脅類別。首批 5 篇文章規劃中,2026-05 開始 rolling release。
#01 · Trust Boundary
哪些 input 可信?什麼時候 LLM output 變成 instruction?
對應 OWASP
LLM01 Prompt Injection / ASI01 Goal Hijack
首篇規劃
Indirect Prompt Injection 識別與防護
#02 · Data Boundary
PII / 機密 / model weights 跨什麼邊界?怎麼 trace 來源?
對應 OWASP
LLM02 Sensitive Info Disclosure / LLM04 Data Poisoning
首篇規劃
Provenance tier 系統實作
#03 · Privilege Boundary
Agent 該有什麼 tool permission?怎麼避開致命三叉?
對應 OWASP
LLM06 Excessive Agency / ASI03 Identity Abuse
首篇規劃
Scoped permissions in MCP server
#04 · Context Boundary
RAG context 從哪來?怎麼偵測污染?
對應 OWASP
LLM08 Vector Weaknesses / ASI06 Memory Poisoning
首篇規劃
Canary tokens in production RAG
#05 · Attack Surface Boundary
你給 model 多大 autonomy?怎麼設最小 auth?
對應 OWASP
ASI02 Tool Misuse / MCP05 Command Injection
首篇規劃
HMAC + replay window for LLM tool API
FAQ
市面上資安內容大致兩種:(1) 給資安專業人員的(紅藍隊、SIEM、認證準備),(2) 給管理層的合規介紹。給「會寫 code 但不是資安專業」的工程師、PM、TPM 的中間位置在繁中圈完全空白。邊界實驗室專攻這個位置——不教 OSCP,不打 CTF,不講 SOC。教你在 build 一個 LLM 應用 / RAG / agent 時,怎麼畫對五道邊界(trust、data、privilege、context、attack surface),讓你的系統即使 AI 犯蠢也不會炸。每篇技術文章帶 lab-confirmed 標記,內容來自 Maki 自己的 mk-brain / ERIKA / Inbox Bot 真實 production 經驗。
完全可以——這個平台就是給你設計的。預期讀者:1-10 年資的工程師、TPM、PM,會 git、會看 log、會 debug HTTP、看得懂 Python 或 JS code。你不需要:CCNA / 加密學基礎 / 滲透測試經驗 / 認證證書。你只需要:在實作 AI 應用時遇過「這樣設可以嗎?」「這樣會不會 leak?」「這個 agent 該給什麼權限?」的疑慮。文章用 dev tone,多 code snippet 和真實事件案例(Meta AI Agent / Anthropic MCP CVE / Cursor credential leak),不堆 jargon、不假裝你應該已經知道某些東西。
拿到一份 LLM 應用 / RAG / agent 設計,你能:(1) 列出輸入面所有可信與不可信的 source,畫出 trust boundary;(2) 設計 RAG provenance tier 系統,讓污染來源能被追蹤甚至偵測;(3) 實作 canary tokens 取代盯 dashboard,讓投毒攻擊有 deterministic 早警;(4) 為 MCP server / tool 設計 scoped permissions,避開 lethal trifecta(tools + sensitive data + autonomy 三選二);(5) 為 LLM tool API 加 HMAC + replay window,最小成本擋住簽章重放。整體目標:讓你在 architecture review 時能直接畫出邊界圖,不再依賴資安團隊事後審查。
OWASP LLM Top 10 / Agentic Top 10 / MCP Top 10 三份清單會引用,但不會逐條重講——這些 OWASP 自己的文件已經寫得很完整,再翻譯一次沒價值。我們做的是把這 30 條對應到「實作層的具體設計決定」,例如:你看到 LLM01 Prompt Injection 該回 codebase 改什麼?看到 ASI03 Privilege Abuse 該怎麼設 IAM?認證準備(OSCP / CEH)跟「實作 AI 安全」是不同職涯路徑,網路上免費資源更豐富,這裡不重複造輪。紅藍隊 / pentest / CTF 也是——那需要的時間投入比這個平台的目標讀者願意花的多 10 倍。
反。AI 越強,邊界判斷的價值越高,不是越低。理由:模型能力上升 → agent 自動化程度上升 → 自主執行的 action 越多 → 邊界畫錯一次的代價越大。Anthropic Git MCP 漏洞、Meta AI Agent Sev1 事故、Perplexity Comet 零點擊洞——這些都不是「AI 笨」造成的,是人類沒設計好邊界就把太多權限交給 AI。我們不是要你抗拒 AI,是要在你給 AI 越來越多權限的同時,懂怎麼把該收的 leash 收回來。lethal trifecta(致命三叉)這個概念之所以重要,正是因為 AI 越強,三選二的取捨越難避開。