作者:庫里,深潮 TechFlow
上週,英國曼徹斯特的一所中學使用 AI 審查了自身的圖書館。
AI 列出了一份包含 193 本書的下架清單,每本書均附有理由。喬治·奧威爾的《1984》赫然在列,理由為「包含酷刑、暴力和性脅迫主題」。
《1984》描寫了一個政府監控一切、篡改歷史、決定公民能看什麼不能看什麼的世界。如今,AI 為一所學校做了同樣的事,而它可能根本不知道自己在說什麼。
這所學校的圖書管理員覺得不合理,拒絕完全執行 AI 提供的建議。

學校隨即以「兒童安全」為由對她展開內部調查,指控她向圖書館引入不適當書籍,並向地方政府舉報。她因壓力請病假,最終辭職。
諷刺的是,地方政府的調查結論認定她確實違反了兒童安全程序,投訴成立。
英國學校圖書館分會主席卡羅琳·羅切說,這個結論意味著她再也無法在任何學校工作了。
抵抗 AI 判斷的人丟了飯碗,簽字同意 AI 判斷的人什麼事都沒有。
之後,學校在內部文件中承認,所有分類和理由均由 AI 生成,原話為:「雖然分類由 AI 生成,但我們認為這一分類大致準確。」
一所學校把「什麼書適合學生讀」這個判斷交給了 AI,AI 交回了一份它自己也不理解的答案,然後一個人類管理者看都沒細看就蓋了章。
這件事經英國言論自由組織 Index on Censorship 曝光後,引發的問題遠不止一所學校的書架:
當 AI 開始替人類決定什麼內容合適、什麼內容危險,誰來判斷 AI 的判斷是對的?
Wikipedia 向 AI 關門
同一週,另一間機構以行動回答了這個問題。
學校讓 AI 決定人能讀什麼。全球最大的線上百科網站維基百科(Wikipedia)做了相反的選擇:不讓 AI 決定百科寫什麼。
同一週,英文 Wikipedia 正式通過了一項新政策,禁止使用大語言模型生成或重寫條目內容。投票結果是 44 票贊成,2 票反對。
直接原因是名為 TomWikiAssist 的 AI 帳戶。今年 3 月初,該帳戶在 Wikipedia 上自主創建和編輯了多個條目,被社區發現後緊急處理。
AI 撰寫一篇條目只需幾秒鐘,但志願者驗證 AI 條目中的事實、來源和用詞是否準確,則需花費數小時。

維基百科的編輯社區總共就那麼多人。如果 AI 可以無限量產內容,人類編輯根本審不過來。
這還不是最麻煩的部分。Wikipedia 是全球 AI 模型最重要的訓練數據來源之一。AI 從 Wikipedia 學習知識,然後用學到的內容撰寫新的 Wikipedia 條目,這些新條目又被下一代 AI 模型拿去繼續訓練。
一旦 AI 生成的錯誤資訊混入其中,它會在這個迴圈中不斷放大,變成一種套娃式的 AI 毒化:
AI contaminates training data; training data then contaminates AI.
不過維基百科的政策也為 AI 留了兩條縫,編輯可以用 AI 潤色自己寫的文字,也可以用 AI 輔助翻譯。但政策特別警告說,AI 會「超出你的要求,改變文本的含義,使其與引用的來源不符」。
人類作者會出錯,維基百科二十多年來依靠社區協作不斷修正。AI 出錯的方式不同,它編造的內容看起來比真的還像真的,而且可以批量生產。
一所學校相信了 AI 的判斷,結果丟了一個圖書管理員。Wikipedia 選擇不相信,直接把門關上了。
但如果連造 AI 的人,自己也開始不信了呢?
造 AI 的人,自己先怕了
外部機構正在對 AI 關門,AI 公司自身也在收縮。
同一週,OpenAI 無限期擱置了 ChatGPT 的「成人模式」。這個功能原計劃於去年 12 月上線,允許經過年齡驗證的成年用戶與 ChatGPT 進行色情對話。
CEO Sam Altman 去年 10 月親自預告,原話是要「像對待成年人一樣對待成年用戶」。
在延遲三次後,直接取消了。
據英國《金融時報》報導,OpenAI 內部的健康顧問委員會全體一致反對此功能。顧問們的擔憂很具體:用戶會對 AI 產生不健康的情感依賴,而未成年人一定會找到方法繞過年齡驗證。
一位顧問的說法更直接:如果沒有重大改進,這個東西可能變成一個「性感的自殺教練」。
年齡驗證系統的錯誤率超過 10%。以 ChatGPT 每週 8 億活躍用戶的規模計算,10% 意味著數千萬人可能被錯誤分類。
成人模式並非本月唯一被取消的產品。AI 視頻工具 Sora、ChatGPT 內建的即時結賬功能,同期也全部下線。Altman 表示公司要專注核心業務,取消「副線任務」。
但 OpenAI 同時在準備 IPO。
一家正衝刺上市的公司,密集砍除可能引發爭議的功能,這個動作更準確的名稱或許不叫聚焦。
五個月前,Altman 還說要像對待成年人一樣對待用戶,五個月後,他發現自己的公司還未弄清楚 AI 應讓用戶接觸什麼、不應接觸什麼。
連製造 AI 的人都沒有答案。那這條線到底該由誰來劃?
無法追上的速度差
你把這三件事放在一起看,很容易得出一個核心結論:
The speed of AI-generated content and the speed of human content review are no longer on the same scale.
在這個背景下,曼徹斯特那所學校的選擇就很容易理解了。讓圖書管理員一本本讀完 193 本書再做判斷,要多久?讓 AI 跑一遍,幾分鐘。
校長選了幾分鐘那個方案,你說他真的相信 AI 的判斷力嗎?我覺得更多是因為他不想花那個時間。
這是一個經濟問題。生成的成本趨近於零,審核的成本全部由人類承擔。
因此,每個受 AI 影響的機構,都被迫以最粗暴的方式應對:Wikipedia 直接禁止,OpenAI 直接砍掉產品線。沒有一個方案是經過深思熟慮的結果,全都是來不及想清楚,先堵上再說。
「先堵上再說」正成為常態。
AI 的能力每幾個月迭代一次,而關於 AI 能接觸什麼內容的討論,連一個像樣的國際框架都還沒有。每個機構只管自己院子裡那條線,線和線之間互相矛盾,也沒有人協調。
AI 的速度仍在加快。審核的人手不會增加。這種剪刀差只會越來越大,直到某一天發生一件比禁掉《1984》嚴重得多的事。
到那時候再畫線,可能就晚了。