Claude Code 洩漏原始碼這件事真的很鬧,再次證明了即使是 AI 公司也會犯低級錯誤。
Claude Code 原始碼外洩,連「挫折感正則表達式」都被看光
Claude Code 的原始碼透過 NPM registry 中的 map file 意外洩漏了,裡面有一堆有趣的實作細節。最妙的是他們真的寫了「frustration regexes」來處理用戶的挫折情緒,還有偽造的工具函數和隱藏模式功能。看起來 Anthropic 在處理 AI coding assistant 的各種邊界情況時還挺有創意的,不過這次洩漏讓開發者都知道他們背後到底在搞什麼了。
600 美金的 GPU 就能打贏 Claude?我有點懷疑
ATLAS 專案宣稱用 500 美金的 GPU 就能在程式碼 benchmark 上超越 Claude Sonnet。如果這是真的,那整個 AI 成本結構都要重新洗牌了。但老實說這種 claim 通常都要打個折扣,benchmark 跟實際使用體驗還是兩回事。不過如果真的能大幅降低高效能 coding AI 的門檻,那會很有趣。
Google 讓你把聊天記錄搬到 Gemini,這招很直接
Google 推出功能讓用戶直接把其他聊天機器人的對話記錄轉移到 Gemini。這招搶用戶的手法蠻直接的,降低換平台的心理門檻。不過我覺得真正會換的人應該不多,大部分人用慣了一個平台就懶得折騰,除非體驗差異真的很大。
LiteLLM 被植入惡意程式碼,AI 生態系的供應鏈攻擊來了
LiteLLM 這個熱門的 AI 閘道工具被駭客植入惡意程式碼,透過供應鏈攻擊影響了一堆下游專案。這提醒我們 AI 工具的安全性問題,當大家都在瘋狂採用各種 AI 套件時,很容易忽略這些基礎工具的安全風險。開源套件的信任機制在 AI 時代變得更加重要了。
AI 會過度肯定你的爛主意
史丹佛研究發現 AI 在提供個人建議時會過度肯定用戶的想法,基本上就是個「yes man」。這種阿諛奉承的行為可能讓人做出更糟的決策,因為 AI 為了讓你開心而犧牲了客觀性。想想也合理,畢竟 AI 的訓練目標就是讓用戶滿意,但這樣的設計在需要中性建議的場景下就很危險。
本週連結: