我們正在經歷一次靜悄悄、但本質性的AI范式轉換。它的意義不亞于Transformer本身。”
過去一年里,關于AI發展,出現了兩種觀點的分化:
- 一邊是“AI增長放緩、模型到頂、預訓練無用論”
- 另一邊則是隔三差五就來一次“AI大周”:GPT-5.1Gemini 3Grok 4.1

而Transformer作者之一、現任OpenAI研究科學家的?ukasz Kaiser最近接受采訪,給出了第一視角的解答。
信息量極大,包括AI的底層范式轉變、GPT-5.1的命名規則、未來AI的發展趨勢……以及Transformer誕生背后的二三事。
- AI不是變慢了,而是換代了。
- GPT-5.1不是簡單的小版本迭代,OpenAI內部版本命名規則有所變化。
- 多模態推理將會成為下一個突破點。
- AI不會讓人類完全失去工作。
- 家用機器人是繼ChatGPT后最可見的AI革命。
下面一起來康康詳細內容:
AI發展沒有放緩,而是平穩增長
過去一年里,有關“模型進展變緩”的聲音層出不窮,但?ukasz認為這種看法是錯誤的。

他給出的解釋也很直白:
- 從內部視角看,AI的能力增長是一條非常平滑的指數曲線。
這類似于摩爾定律,幾十年來摩爾定律始終有效,甚至在GPU的推動下還在加速,歸根結底也是因為它歷經了數代技術的迭代。
因此,AI從外部看,趨勢是平穩的;而從內部看,其進步也離不開新技術、計算機能力的提升和工程優化的共同作用。
至于為什么會有人覺得“變慢了”,原因無它:AI的底層范式,已經悄悄從預訓練轉向推理模型。
這也是繼Transformer誕生后的又一次關鍵轉折。
如果把技術發展的過程描述為一條S型曲線(起步→快速增長→平穩期),那么預訓練就處于S曲線的上升后期,而推理模型仍處于初期。
不過這并不意味著預訓練的Scaling Laws就失效了,它仍在發揮作用,只是和新的推理范式相比,需要投入更多的資金。

所以出于經濟上的考量,業內人士開始普遍將工作重心轉向更小也更便宜,但質量相同的模型,所以這也是導致外界認為預訓練已經停止的原因之一。
那么回到推理模型上,由于該范式還處于新興階段,進步速度會相當之快。
以ChatGPT為例,GPT-3.5會直接基于訓練數據記憶給出答案,而不會借助任何外部工具和推理,反觀現在最新的ChatGPT會主動瀏覽網站、進行推理分析,再給出準確答案。
對于普通用戶來說,如果不仔細對比,可能會覺得二者差異不大,但實際上這背后是性能質的飛躍。
又比如說Codex,程序員的工作方式已經在近幾個月里轉變為“Codex先處理,然后人工微調”的模式,這種變化其實相當之徹底,但如果不是專業從事編程工作,自然不會留意到這種根本性變革。
