← 返回 AI News
📰 The New Yorker

🧠 What Is Claude? Anthropic Doesn't Know, Either

📋 文章摘要:

《紐約客》深度報導:Anthropic 研究人員嘗試理解 Claude 嘅內部運作—— 檢查神經元、進行心理學實驗、將佢放上治療 couch。 語言模型本質只係「一堆數字」,但當佢開始預測句子時,所有人都為之瘋狂。 諷刺嘅係,AI 黑盒迫使我哋承認:我哋自己嘅心智同樣係個黑盒。

🧠 語言模型:一堆數字

大型語言模型只係一堆數字。佢將文字轉為數字, 運行呢啲數字通過數值彈珠遊戲,然後將結果數字轉回文字。 氣象學家使用佢嚟預測天氣,流行病學家用佢預測疾病路徑。 但當呢啲 AI 系統開始預測句子嘅路徑——即係說話—— 反應係廣泛嘅狂喜。

🔬 研究人員嘅探索

Anthropic 研究人員嘗試理解 Claude 嘅內部運作方式:

  • 檢查神經元活動
  • 進行心理學實驗
  • 將 AI 系統睇作需要理解嘅對象

😱 眾生反應

Brown 大學電腦科學家 Ellie Pavlick 制定咗我哋常見反應嘅分類:

  • Fanboys:認為大型語言模型係智能嘅,甚至可能有意識
  • Curmudgeons:認為只係「隨機鸚鵡」
  • 承認不知:「我們不知道」

🤔 核心問題

當 AI 開始預測句子,所有人都失去理智。 一位認知科學家最近寫道: 「對於颶風或疫情,這同科學一樣嚴謹;但對於單詞序列,每個人似乎都失去理智。」 Claude 嘅自我,如同我哋自己一樣,係神經元同故事嘅混合體。

🔗 原文 (The New Yorker) 📦 Archive.ph