跳到主要內容
邊界實驗室 · Boundary Lab

邊界實驗室 · Boundary Lab

會寫 code 的人,也要會畫邊界

給已會寫 code 的工程師、PM、TPM 補 AI 時代資安通識——不教 SOC、不打紅藍隊、不準備認證,教你在實作 AI 應用時怎麼畫對邊界。

你是不是也遇過:公司 ban 了 AI 工具,但你私下 side project 還是狂用,怕出事又不知道怎麼設邊界?把 RAG 接公司知識庫但完全沒人在意 source 可信度?讓 Agent 讀 email 結果中 prompt injection?看完 Anthropic MCP CVE 想 harden 自己的 server 卻不知從何下手?這些不是「資安團隊的事」,是 build AI 的人自己要懂的。這個平台教你在實作 AI 應用時怎麼畫對 trust boundary / data boundary / agent autonomy boundary——不嚇人、不堆 CVE、不要求你考認證。

Trust BoundaryLethal TrifectaProvenanceCanary TokensMCP Security

Focus

在實作 AI 應用時,畫對五道邊界

Audience

已會寫 code 的工程師、PM、TPM。不需資安背景,不準備認證。

Approach

每篇技術文章帶 lab-confirmed 標記——來自 Maki 個人 PKI(mk-brain / ERIKA / Inbox Bot)真實 production 經驗。

The Five Boundaries

五大邊界類型

每一道邊界都對應 OWASP 的具體威脅類別。首批 5 篇文章規劃中,2026-05 開始 rolling release。

#01 · Trust Boundary

信任邊界

哪些 input 可信?什麼時候 LLM output 變成 instruction?

對應 OWASP

LLM01 Prompt Injection / ASI01 Goal Hijack

首篇規劃

Indirect Prompt Injection 識別與防護

Coming soon

#02 · Data Boundary

資料邊界

PII / 機密 / model weights 跨什麼邊界?怎麼 trace 來源?

對應 OWASP

LLM02 Sensitive Info Disclosure / LLM04 Data Poisoning

首篇規劃

Provenance tier 系統實作

Coming soon

#03 · Privilege Boundary

權限邊界

Agent 該有什麼 tool permission?怎麼避開致命三叉?

對應 OWASP

LLM06 Excessive Agency / ASI03 Identity Abuse

首篇規劃

Scoped permissions in MCP server

Coming soon

#04 · Context Boundary

脈絡邊界

RAG context 從哪來?怎麼偵測污染?

對應 OWASP

LLM08 Vector Weaknesses / ASI06 Memory Poisoning

首篇規劃

Canary tokens in production RAG

Coming soon

#05 · Attack Surface Boundary

攻擊面邊界

你給 model 多大 autonomy?怎麼設最小 auth?

對應 OWASP

ASI02 Tool Misuse / MCP05 Command Injection

首篇規劃

HMAC + replay window for LLM tool API

Coming soon

FAQ

常見問題

邊界實驗室跟 iThome、CYBERSEC、Hahow 的資安課有什麼不一樣?

市面上資安內容大致兩種:(1) 給資安專業人員的(紅藍隊、SIEM、認證準備),(2) 給管理層的合規介紹。給「會寫 code 但不是資安專業」的工程師、PM、TPM 的中間位置在繁中圈完全空白。邊界實驗室專攻這個位置——不教 OSCP,不打 CTF,不講 SOC。教你在 build 一個 LLM 應用 / RAG / agent 時,怎麼畫對五道邊界(trust、data、privilege、context、attack surface),讓你的系統即使 AI 犯蠢也不會炸。每篇技術文章帶 lab-confirmed 標記,內容來自 Maki 自己的 mk-brain / ERIKA / Inbox Bot 真實 production 經驗。

我會寫 code 但不懂資安,能直接看嗎?

完全可以——這個平台就是給你設計的。預期讀者:1-10 年資的工程師、TPM、PM,會 git、會看 log、會 debug HTTP、看得懂 Python 或 JS code。你不需要:CCNA / 加密學基礎 / 滲透測試經驗 / 認證證書。你只需要:在實作 AI 應用時遇過「這樣設可以嗎?」「這樣會不會 leak?」「這個 agent 該給什麼權限?」的疑慮。文章用 dev tone,多 code snippet 和真實事件案例(Meta AI Agent / Anthropic MCP CVE / Cursor credential leak),不堆 jargon、不假裝你應該已經知道某些東西。

學完能做什麼?

拿到一份 LLM 應用 / RAG / agent 設計,你能:(1) 列出輸入面所有可信與不可信的 source,畫出 trust boundary;(2) 設計 RAG provenance tier 系統,讓污染來源能被追蹤甚至偵測;(3) 實作 canary tokens 取代盯 dashboard,讓投毒攻擊有 deterministic 早警;(4) 為 MCP server / tool 設計 scoped permissions,避開 lethal trifecta(tools + sensitive data + autonomy 三選二);(5) 為 LLM tool API 加 HMAC + replay window,最小成本擋住簽章重放。整體目標:讓你在 architecture review 時能直接畫出邊界圖,不再依賴資安團隊事後審查。

為什麼不教 OWASP LLM Top 10 / 認證 / 紅藍隊?

OWASP LLM Top 10 / Agentic Top 10 / MCP Top 10 三份清單會引用,但不會逐條重講——這些 OWASP 自己的文件已經寫得很完整,再翻譯一次沒價值。我們做的是把這 30 條對應到「實作層的具體設計決定」,例如:你看到 LLM01 Prompt Injection 該回 codebase 改什麼?看到 ASI03 Privilege Abuse 該怎麼設 IAM?認證準備(OSCP / CEH)跟「實作 AI 安全」是不同職涯路徑,網路上免費資源更豐富,這裡不重複造輪。紅藍隊 / pentest / CTF 也是——那需要的時間投入比這個平台的目標讀者願意花的多 10 倍。

AI 越來越強,邊界不是會被自己學會嗎?

反。AI 越強,邊界判斷的價值越高,不是越低。理由:模型能力上升 → agent 自動化程度上升 → 自主執行的 action 越多 → 邊界畫錯一次的代價越大。Anthropic Git MCP 漏洞、Meta AI Agent Sev1 事故、Perplexity Comet 零點擊洞——這些都不是「AI 笨」造成的,是人類沒設計好邊界就把太多權限交給 AI。我們不是要你抗拒 AI,是要在你給 AI 越來越多權限的同時,懂怎麼把該收的 leash 收回來。lethal trifecta(致命三叉)這個概念之所以重要,正是因為 AI 越強,三選二的取捨越難避開。