
AI delegate out,accountability delegate in — Zapier V2 招募標準真正的分水嶺
Zapier 剛把 AI fluency 招募標準改版了
Zapier 的 Head of Talent Tracy St.Dic 前幾天發了一篇 V2 AI fluency hiring rubric。一年前他們宣布全公司要 100% AI 採用、招募卡 AI fluency bar;一年後這份 rubric 被重寫。
多數人會注意到的點是「bar 又拉高了」——現在候選人要證明 AI 已經嵌進核心工作、有可複製系統、有可量測影響,不是「我平常有在用 ChatGPT」就算。這很重要,但不是這次改版最有意思的訊號。
最有意思的是他們加了一條新的支柱:Accountability。
V2 四支柱:為什麼第四條現在才出現
V2 把 AI fluency 拆成四個:
- Mindset — 對 AI-driven 方法的理解與開放度
- Strategy — 知道哪裡該用 AI、該怎麼用
- Building — 實際把 AI 接進 workflow
- Accountability — 對產出判斷、對結果負責 ← 新的
前三條在 V1 就有了,都還停留在「你會不會用 AI」的光譜上。第四條的命題完全不同:你敢不敢對 AI 產出簽名?
Zapier 在文章裡留了一句我覺得值得裱起來的話:
"With AI, you can delegate the work, but not the accountability."
翻成 day-to-day 的語言:工作可以丟給 agent,但出事不能說「是 Claude 寫的」。
為什麼 accountability 是 AI 時代真正的分水嶺
AI 產出有一個特徵,跟過去任何工具都不同:它看起來都對。
Compiler 錯會噴 error、測試錯會 fail、lint 錯會畫紅線。但 LLM 寫的 code、SQL、合約條款、行銷文案——錯的版本跟對的版本長得幾乎一樣。流暢、有 structure、terminology 用對、論述看起來合理。人不站出來判斷,沒有任何機制會告訴你這個產出是錯的。
這件事改寫了工程師 deliver value 的介面。
過去十年,工程師的價值交付是「產出」:寫出來的 code、修好的 bug、上線的 feature。AI 把產出這一層打爆了——一個 senior 寫 code 的速度不會比 Claude 快。但判斷力還沒有被 AI 取代:什麼叫「對」、在什麼場景下可接受、哪個 edge case 必須守住、上線後壞了誰吸。
Zapier 把這一條抓出來寫進招募標準,其實是在講:會用 AI 是 table stakes,敢替 AI 產出簽名才是差異化。
Delegate 執行、留下責任——留下的具體是什麼?
「你可以 delegate 工作但不能 delegate 責任」這句話聽起來很漂亮,拆開講才有用。AI 時代工程師真正留在身上、不能往下丟的,我認為是四件事:
1. 定義成功標準。 Agent 不知道你的 eval 長什麼樣。你必須在 prompt 之前就清楚:這個 task 算做完的標準是什麼、測什麼、由誰驗收。這件事做壞了,後面 agent 跑得再漂亮都是幫倒忙。
2. Critical eval。 AI 產出進來你第一反應應該是「這哪裡會錯」,不是「這看起來不錯」。前者是工程師,後者是 reviewer 假扮工程師。
3. 提早發現問題。 問題在 production 被客戶發現,代表你的 accountability 已經破產。Accountability 的 craft 是把「抓到問題」往前推——推到 PR 之前、推到 agent commit 之前、推到 prompt 送出之前。
4. 擁抱結果。 Bug 上線了、漏洞被利用了、客戶生氣了——你不能說「是 Claude 做的」。這句話講出來的那一秒,你的 accountability slope 就歸零。
這四件事 AI 做不到。做了你也不該信——因為它沒有後果要承擔。
會用 AI vs 對 AI 產出負責——兩種組織的人才畫像
Zapier 這次 V2 rubric 改動的本質,是把兩種組織的人才畫像分開:
Waiting7777
WoW Arena 冠軍轉前端,用電競 meta 思維拆解技術趨勢。
這篇文章對你有幫助嗎?
每週一篇 — 技術趨勢背後的商業邏輯
AI 產業在變什麼、工程師該注意什麼——拆清楚寄到你的信箱。


