你最近寫 code 的時候,有沒有一種感覺:
自己好像越來越依賴 AI 了?
以前遇到問題會去翻文件、看原始碼、debug 半天;現在很多時候,是直接把問題丟給 AI,看它怎麼解。
久了之後會開始偷懶——
文件不太想查了,原始碼也不太想看了,反正 AI 通常都能給個「看起來合理」的答案。
但有個問題我最近一直在想:
當大家都在用同一套 AI 工具,我們做出來的東西,會不會開始變得越來越像?
這其實不是一種直覺上的焦慮而已。
2026 年初,南加州大學(USC)有一篇研究,標題很直接:
〈當大語言模型讓人類思維變得更同質化〉。
他們做的事情也很單純:
讓一批人用 AI 輔助寫作,然後分析這些內容的「多樣性」。
結果是——AI 參與越多,文字風格越集中、思考路徑越接近,個體的差異被明顯削弱。
研究裡有一句話我覺得很值得記:
當同一套語言模型介入所有人的表達,語言風格、觀點,甚至推理方式,都會被拉向同一個平均值。
白話一點就是:
當大家都用同一個 AI,你的思考,很可能會慢慢變得跟別人一樣。
最近我還看到一個很有趣的對照。
GitHub 上有個小專案,叫 GuppyLM。
它不是那種幾千億參數的大模型,反而很小——小到可以在免費的 Colab 上幾分鐘訓練完。
它厲害的地方不在效能,而在於一件事:
讓你從頭到尾「看懂」一個語言模型是怎麼長出來的。
你可以自己餵資料、自己訓練、自己看輸出。
最後得到一個有點呆、有點可愛的小模型,會用很簡單的方式回答問題。
重點不是它有多強,而是這種「自己動手做」的過程。
當現在大多數人都依賴少數幾個大型模型時,這種從零開始理解的能力,反而變得很稀有。
在日常開發裡,這種變化其實已經慢慢出現了。
你可能也看過類似的狀況:
很多人開始很熟某些 AI 工具的用法,但一旦離開 AI,就不太確定該怎麼往下做。
以前我們會在意演算法、資料結構、系統設計;
現在有些人更熟的是 prompt 怎麼寫、哪個工具比較好用。
這不完全是壞事,畢竟工具本來就會改變工作方式。
但某些能力確實在變弱,例如:
就像導航很方便,但用久了之後,方向感真的會變差。
這裡其實有兩個方向,可以稍微往下挖。
一個是模型本身的差異。
很多人會把不同 AI 模型當成「差不多的東西」,但實際上它們在設計上差很多——從 embedding 的做法、訓練資料,到最後怎麼對齊人類偏好,都會影響輸出的風格和推理方式。
這也是為什麼,有些模型你用起來會覺得比較保守,有些則比較發散,甚至在同一個問題上給出完全不同的解法。
如果你有興趣,可以找一些整理過模型差異的資料來看,會比較系統性地把這些差異拆開來理解。
理解這些東西的重點,不是讓你去選「最強的模型」,而是讓你意識到:
你現在的思考方式,其實正在被某一種模型的設計所影響。
另一個方向,是 AI 的「記憶」這件事。
很多人會直覺認為模型會「記住」東西,但實際上,多數長期記憶是透過像 RAG(Retrieval-Augmented Generation)這樣的機制,把外部知識在需要時再撈回來。
這也意味著,你看到的「AI 很懂你」,很多時候其實是檢索設計得好,而不是模型本身真的理解或記住。
如果對這塊有興趣,可以再看看一些實作面的整理,會更清楚這種「記憶感」是怎麼被做出來的。
那這代表我們應該少用 AI 嗎?
也不至於。比較像是——怎麼用,會變得很關鍵。
有幾個我自己覺得還不錯的做法:
1. 把 AI 當參考答案,而不是第一反應
先自己想一輪,再去看 AI 的解法,差異其實很有價值。
2. 偶爾刻意「不用 AI」
例如每週挑一個小問題,從查文件開始,完整走一遍。
不是為了證明什麼,而是讓基本功不要消失。
3. 試著理解工具背後在做什麼
不用到研究等級,但至少知道它大概怎麼運作、限制在哪。
我覺得這整件事最有趣的地方在於:
當整個產業都在往「更快產出」前進時,
真正拉開差距的,可能反而是那些還保留著「自己思考過程」的人。
不是不用 AI,而是沒有把思考外包給 AI。
如果你也有這種感覺,其實蠻值得聊聊的。