J
杰果資訊
AI 工具與開發流程Claude CodeRoutinesworkflow automation

Claude Code 推出 Routines 之後,coding assistant 開始長得更像工程流程裡的一個值班角色

派鹿主編
2026-04-15閱讀時間 7 min
Anthropic 在 2026 年 4 月 14 日推出 Claude Code Routines,這是一個研究預覽功能,讓團隊能把 Claude Code 的任務設定存下來,讓它在 Anthropic 管理的雲端環境中自動重複執行——不需要筆電開著,不需要每次手動下 prompt。這篇文章不逐項介紹觸發方式,而是直接告訴 engineering manager 與 technical lead:這個改變代表什麼,哪些工程工作值得先交給它跑,以及什麼不該急著放手。

重點收穫

  • Claude Code Routines 的真正意義,不是多了一個可排程的 prompt,而是 Anthropic 正在把 Claude Code 推向可納入工程流程的雲端 automation layer。對 engineering manager 來說,現在值得認真思考的問題已經從「要不要用 Claude 幫我寫」,轉向「哪些固定工作我可以讓它先自己跑、我再來決策」。

以下是依照你原本的結構與段落邏輯,保留原格式後,從專業寫作角度潤修過的版本。我主要調整了語氣密度、句型重複、過度解釋的括號,以及幾處較像 AI 寫作的節奏,讓整體更像成熟編輯稿、但不失原本的觀點和力道。

每天早上,工程主管的行程大概都差不多:先看 CI 有沒有掛掉,確認昨晚的 deploy 有沒有出事,再瞄一眼哪些 PR 開了三天以上,卻還沒人處理。

這些都不是新功能開發,而是維持流程不失控的日常工作:重複、必要,而且每一次都得有人主動發動,事情才會開始往前走。

過去的 Claude Code 是互動式工具。你打開它、下 prompt、等結果、再繼續對話。這種模式很適合「我現在想寫一段程式」,但面對「我希望每次有人開 PR,就自動跑一次品質檢查」這類需求,就顯得有點無力——因為你的筆電得在線、你的注意力得放在那裡,整件事才會真正啟動。

Anthropic 在 4 月 14 日推出的 Claude Code Routines,正是為了解決這個問題。

Claude Code 這次變的不是介面,而是工作模式

用來解釋〈Claude Code 這次變的不是介面,而是工作模式〉核心概念的文章插圖。
〈Claude Code 這次變的不是介面,而是工作模式〉

Routines 是一項 research preview 功能,也就是仍處於早期測試階段,功能與限制都可能持續調整。它讓你可以把一套 Claude Code 任務設定——包括 prompt、要讀的 repositories,以及串接的外部工具——存下來,並交由 Anthropic 管理的雲端環境重複、自動執行。

這裡最關鍵的兩個字,是「雲端」和「自動」。

Claude Code on the web 原本就跑在 Anthropic 管理的雲端基礎設施上,而 Routines,則是在這種雲端 session model 之上再往前推一步。實際帶來的改變是:你不需要讓筆電持續開著,任務也能照樣被觸發。Anthropic 表示,Routines 目前支援三種觸發方式:時間排程、透過 API 呼叫,或依照 GitHub 事件啟動,例如有人開 PR、push 新的 commit、建立 issue,或某個 workflow 跑完。

這代表 Claude Code 正在從「你去找它,它幫你做事」,走向「你先把任務設好,它會在對的時機自己跑一輪,然後你再來看結果」。

為什麼 engineering teams 會先感受到差異

Anthropic 的官方文件和 launch post 都提到幾個最典型的使用場景,而這些場景有一個共同特徵:重複、有邊界,而且結果可以被驗證。

PR review 自動觸發。 每次有人開 PR,Claude Code 就先跑一輪,根據你設定的規則和 prompt,給出初步評論或標記。這不會取代 code owner 的人工 review,但能讓 AI 先篩掉格式問題、潛在 bug 模式,或你特別指定的 coding style 偏差。

Deploy 後驗證。 一次 deploy 完成後,觸發 Claude 去檢查 log、對照 deploy checklist,或確認健康指標是否異常。這類檢查過去往往得靠人手動執行,或者另外接一套複雜的 monitoring script。

Issue 和 backlog 分流。 透過固定排程,讓 Claude 定期掃過 issue queue,根據 label、優先級規則,或你設定的判斷邏輯,整理 backlog、補標籤,或標出需要人類決策的項目。

文件和 code drift 檢查。 程式改了,文件卻沒跟上,幾乎是所有團隊都會遇到的問題。定期讓 Claude 跑一次 docs drift check,比對 code 與文件的一致性,列出明顯落差,再交由人判斷該怎麼補。

跨 SDK 移植固定邏輯。 當同一段功能需要同步到多個 SDK 版本時,這種偏機械式的轉譯工作,其實很適合先讓 Claude 跑出一版草稿。

這些例子的共同點,不是「Claude 很聰明,所以能解決所有問題」,而是「這些工作本來就得有人做、流程本來就固定,而且成功與否通常不難驗證」。Routines 降低的,不只是操作成本,而是整件事的啟動成本:你不必再手動打開工具、下 prompt、等結果。

真正的 adoption 問題:哪種工作適合先交出去

換個角度看,Routines 不是把所有工程決策外包給 AI,而是讓某一類工作可以先由 AI 跑一遍,再由人接手判斷。

對 technical lead 來說,這套判斷框架很重要,因為不是所有工作都適合放進 Routines。

適合的工作,通常有幾個特徵:第一,它能被寫成清楚的 prompt;如果連人都說不清楚要怎麼做,Claude 也不可能做得穩。第二,結果必須可以驗證,或至少有明確的成功條件,否則你不會知道它到底跑得對不對。第三,這類工作要有足夠高的重複率,而且每次邏輯大致相同,否則自動化本身就失去意義。最後,就算出錯,也應該能被偵測、能補救,而且不會造成不可逆的後果。

相對地,那些需要大量臨場判斷、高度依賴跨部門脈絡,或一旦出錯代價就很高的工作,就不適合交給 Routines。像是部署頻率策略、架構方向判斷、重大 refactoring 這類事,本來就不該由它來接手。

另一個現實邊界是 plan limits。Anthropic 表示,Routines 會依照不同方案設有每日執行次數上限,超過後才進入額外用量計費。具體數字在文件中有列出,而目前又仍處於 research preview 階段,後續也可能調整。Pro、Max 與 Team、Enterprise 的上限設定並不相同,因此在設計自動化頻率時,這件事本來就得先算進去。

至於 repository 和 connector 的存取範圍,也需要在設定 Routine 時仔細規劃。Anthropic 的文件提到,Routine 的 repo 權限與 connector 連接方式可以各自設定,也可以繼承帳號本身的設定。換句話說,你得先想清楚:每一個 Routine 應該看到哪些東西、不該碰哪些東西。這本身就是一個 governance 問題,不是把功能打開就算完成。

Claude Code 正在往 workflow automation layer 走,但還不是放著不管的 autopilot

把現實講清楚很重要,因為 Routines 目前仍是 research preview,還不是成熟的 enterprise workflow platform。

不管是觸發方式、執行環境、API 介面——目前 API trigger 仍在 beta,且需要特定 header 才能使用——還是 GitHub App 的設定要求,這些都還在持續演化。

用 9to5Mac 的外部觀察來補一句,其實很貼切:它把 Routines 描述成一種「不需要使用者的 Mac 持續在線、可重複執行的雲端自動化」。這個理解很準,但也同時點出了它目前的邊界:它仍依賴 Claude Code on the web、需要先完成 GitHub 整合設定,也受到每日執行次數與方案限制的影響。

這不是說它現在不值得試。真正比較有效的做法,反而是從一個小而具體、而且本來就已經在手動執行的流程開始:先把它設成 Routine,跑幾次,確認結果穩定、符合預期,再慢慢往下一個流程擴展。

如果一個 engineering team 已經很清楚,哪些工作是固定的、可驗證的、而且重複率高,那麼 Routines 帶來的就不只是少打幾次 prompt,而是把原本的工程節奏,從「人發動 AI 去做」,改成「AI 先跑一輪,人再來做決策」。

真正值得注意的,可能不是排程功能本身,而是這個工作分工方向的改變。

想了解更多?

歡迎與杰果資訊團隊交流,我們能幫助你的組織找到最適合的 AI 教育導入方案。