那個不知道怎麼回答的教務主任
一位教務主任在期末前收到老師傳來的訊息:「我用 AI 算了一下期末成績,結果跟我自己算的差不多,可以直接用嗎?」
她停頓了一下。沒有規定說不行,但她有種很確定的「這樣不對」的感覺,只是說不清楚為什麼。
這種直覺在全球教育圈都存在,但很少有學區給出正式的答案。2026 年 3 月 24 日,紐約市教育局(NYC DOE)給出了它的版本:一份 K-12 AI 使用的初步指引,以「紅綠燈」框架明確劃出邊界。
這是美國最大公立學區——覆蓋超過 120 萬名學生——三年來第一份正式的 AI 課堂規範。它不完美,還有六月定版前的修訂空間,但它提供了一個難得的公開參考點。
紅綠燈:三個顏色,三種對應方式
紐約的框架把 AI 的課堂用途分成三類,每一類都值得台灣老師用自己的工作情境對照想像。
綠燈——可以直接做
老師用 AI 腦力激盪課程計畫、起草給家長的非關鍵通訊,這些都在綠燈範圍。學生呢?可以在老師引導下用 AI 做探索性和創意性的專案。
換成台灣課堂的語言:備課查資料、生成作業設計的初稿、讓學生拿 AI 做報告的第一輪素材整理——這類事情,NYC DOE 認為沒問題。
黃燈——可以用,但輸出必須由專業人員審查
這個顏色最容易被誤讀成「不行」,但它其實說的是「可以,但有條件」。
具體例子:用 AI 分析學生學習數據趨勢、為雙語學習者生成翻譯版本、調適身障學生的學習材料。這些事 AI 可以做,但所有輸出都要先過一遍專業老師的眼睛,才能用在學生身上。
黃燈的邏輯是:AI 可以是起點,但不是終點。你可以讓 AI 翻譯一份學習單給新移民學生,但你要確認翻譯的用詞是否符合學生的實際程度,這個判斷 AI 沒辦法做。
紅燈——嚴格禁止,且預計不會在 6 月改變
這是最清晰的部分,也是最重要的部分。
評分、開具特殊教育計畫(IEP/504)、紀律決定、輔導和危機介入、學術安置決策——全部紅燈,全部由人來做。
NYC DOE 特別強調:這幾條紅燈在 6 月的定版裡預計不會改變。換句話說,這不是「先這樣,技術成熟後再開放」的暫時禁令,而是原則性的立場。
「紅燈永遠不會變綠」背後的邏輯
為什麼打成績不行,但備課可以?
這個問題的答案不在技術,在問責。
打成績、開 IEP、做紀律決定——這些事情不只是「計算」或「判斷」,它們帶有法律責任和道德義務。如果一個學生的成績被 AI 誤打了,如果一份 IEP 的支援方向錯了,如果一個紀律決定傷害了學生——誰負責?
AI 沒有辦法承擔這個責任,所以不應該做這些決定。這不是 AI 不夠聰明,而是責任歸屬的問題。老師、輔導員、校長——他們在做這些決定時,承擔的是對每一個具體學生的問責義務,這件事沒有辦法轉移給一個工具。
校長 Kamar Samuels 在受訪時說了一句話讓人印象深刻:這份指引是為了確保技術「增強人的判斷,而不是取代它」。這不是官方說辭,而是紅綠燈框架的核心邏輯。
反對聲音:1,500 份請願在說什麼
這份指引不是所有人都歡迎的。
一份要求在學校暫停 AI 使用兩年的請願,已累計約 1,500 份簽名。多個家長委員會也通過了反對 AI 課堂導入的決議。
反對者的核心擔憂有兩個:一是學生數據隱私——所有使用的 AI 工具都必須通過 DOE 的資料隱私審查,學生個資不能輸入未經核准的工具,但誰來確認這個審查夠嚴格?二是更根本的教育哲學疑問:AI 是否正在把「學習過程」從學生手裡拿走,換成輸出的方便?
這份初版指引在六月定版之前,還有公眾意見徵集的窗口(至 5 月 8 日)。反對聲音很可能影響最終版本的某些細節——這個過程本身,也是民主教育治理的一部分。
台灣學校可以借用的自查問題
紐約的指引是美國脈絡下的規範,台灣學校不需要全盤複製,但有一個邏輯可以直接拿走。
在你的學校決定哪些事情 AI 可以參與之前,問這個問題:
「這個任務如果出了問題,誰負責?」
如果答案是「老師最終負責」,AI 可以參與,但輸出必須由老師審查後才能用於學生。
如果答案找不到一個具體的人,或者「AI 負責」——那這件事不應該讓 AI 做。
這不是 NYC DOE 的規定,這是任何學校都可以普遍適用的自查標準。它不需要等政策文件,今天的教師會議就可以拿來討論。