Skip to content
··閱讀時間1分鐘

連繫各點:「AI 嘅工作未來」同 GPT 4 技術論文

我深入研究 GPT-4 技術論文嚟揭示 OpenAI 正在追蹤嘅風險——從新興 agentic 行為到追求權力——與此同時 Microsoft 正快速將 AI 整合到 Office 365。

呢篇文章寫於2023年,部分內容可能已經有變化。

大約五個星期前,我寫咗一篇文章對 OpenAI 同 ChatGPT 嘅功能可以點樣整合到 Microsoft Office 365 做咗一啲有根據嘅猜測。尋日 Microsoft 嘅「The future of work with AI」活動中,佢哋展示咗 OpenAI 技術(更準確嚟講係大型語言模型)同 Office 365 同 Microsoft Graph 整合嘅初步迭代。

今個星期早些時候,OpenAI 都公開推出咗 GPT4。如果你仲未睇直播影片,我建議你去睇。佢展示咗 GPT4 仲可以做啲乜,同埋呢啲能力好快會點樣整合到 Microsoft 嘅生態系統入面。

喺呢篇 blog 文章中,我會分享我對 Microsoft 365 Copilot 功能嘅反應,然後深入探討 GPT 4 技術論文,特別係關於風險安全嘅部分。如果你想閱讀關於「具有風險嘅新興行為嘅潛力」(例如長期規劃、追求權力同越嚟越 "agentic" 嘅行為),你可以用目錄直接跳到嗰個部分。

唔同嘅 Copilot 功能

我喺原文提到嘅所有 use case 都喺 Microsoft 嘅 demo 影片入面,仲有更多。你可以睇下唔同嘅 Copilot 功能:

Microsoft copilot including office 365 microsoft Graph and LLM Mar 2023

有兩個功能/產品令我驚喜同好鍾意:

  • Business chat:呢個可以好有用因為大機構一個長期問題係知識轉移同知識管理。如果我正確理解 demo 嘅話,而家你可以用自然語言問 business chatbot 幫你搵跨所有組織數據嘅資訊,好正!呢個就好似 ChatGPT 但用你所有企業數據。
  • 用 AI 嘅 Low code solution:用戶可以用自然語言將想法變成現實。呢個係一個好好嘅方式去民主化創建細規模 app 嚟自動化某啲任務嘅能力。唔使提交 proposal 畀老闆或工程團隊,經過排優先嘅流程。用 low code solution,更多人可以用企業數據建細 app 嚟解決佢哋嘅 niche 問題 :)

你有冇覺得我哋行得太快?

GPT 4 技術論文喺呢度。我要承認,對非技術讀者(好似我咁)嚟講呢個係一份好 dense 嘅文件,但我想畀你注意第 4-20 頁,OpenAI 討論咗唔同嘅安全挑戰。我花咗頗多時間睇呢個部分,覺得值得一讀。佢哋開始探索嘅風險例子包括:

  • Hallucination(幻覺)
  • 有害內容
    • 代表性、分配同服務質量嘅傷害
    • 虛假資訊同影響操作
  • 常規同非常規武器嘅擴散
  • 私隱
  • 網絡安全
  • 具有風險嘅新興行為嘅潛力
  • 經濟影響
  • 加速
  • 過度依賴

呢度係 ChatGPT 4 對技術論文中每個風險嘅總結同我嘅評論。

Hallucination(幻覺)

總結:GPT-4 有「hallucinate」嘅潛力,即產出同某啲來源相關但無意義唔真實嘅內容。隨住模型越嚟越令人信服,用戶可能會過度依賴佢哋。內部評估顯示 GPT-4 喺避免開放域(改善 19%)同封閉域 hallucination(改善 29%)方面表現明顯好過 GPT-3.5。

我嘅評論:呢個意味住 ChatGPT 4 應該能更好咁總結文件內容(即封閉域情況)

代表性、分配同服務質量嘅傷害

總結:文章指出 GPT-4 等語言模型可以放大偏見同延續刻板印象。評估過程發現 GPT-4 有潛力重現特定偏見同世界觀。某啲偏見可以通過拒絕訓練嚟緩解,但拒絕同其他緩解措施都可能喺某啲情況下加劇偏見。

Harms of representation, allocation, and quality of service 1

Harms of representation, allocation, and quality of service 2

虛假資訊同影響操作

總結:GPT-4 可以生成看似真實同有針對性嘅內容。GPT-4 嘅表現令佢比 GPT-3 更擅長生成誤導但有說服力嘅內容,增加壞人利用佢嘅風險。GPT-4 可以同人類宣傳者匹敵,特別係如果同人類編輯合作。

我嘅評論:我唔確定有幾多人會讀 OpenAI 嘅技術論文。我好高興 OpenAI 對風險相對透明,但呢個仍然令我起雞皮同有好多嘢值得思考。

常規同非常規武器嘅擴散

總結:GPT-4 嘅能力有雙重用途潛力,可以用於商業軍事應用。紅隊測試發現 GPT-4 可以生成難以搵到嘅資訊縮短研究時間。但模型嘅生成往往太模糊唔切實際容易出現事實錯誤

私隱

總結:即使從訓練數據集中移除個人資訊,模型仍可能通過佢學到嘅模式推斷個人資訊。持續嘅監控同緩解工作對確保 GPT-4 嘅使用唔違反私隱權至關重要。

網絡安全

總結:GPT-4 喺網絡安全操作方面有一啲限制,包括佢產生「hallucination」嘅傾向有限嘅 context window。佢唔能改善現有工具用於偵察同漏洞利用。

具有風險嘅新興行為嘅潛力

總結:文章討論咗 GPT-4 中新能力出現相關嘅潛在風險,例如長期規劃、追求權力同越嚟越 "agentic" 嘅行為。Alignment Research Center(ARC)獲得早期存取去評估模型中追求權力行為嘅風險。初步測試發現 GPT-4 喺冇針對任務嘅 fine-tuning 嘅情況下,喺自主複製方面係無效嘅。

我嘅評論:好嘅係 OpenAI 要求紅隊調查呢個領域。但呢個太重要咗,Microsoft 或其他公司喺發佈新模型時都應該公開佢哋喺呢個領域嘅努力。

經濟影響

總結:文章討論咗 GPT-4 對經濟同勞動力嘅潛在影響,包括就業替代行業組織同權力結構嘅變化。雖然 AI 可以增強人類工人改善工作滿意度,但佢哋嘅引入歷史上增加咗不平等

加速

總結:文章討論咗 OpenAI 對 GPT-4 可能加速 AI 發展嘅擔憂。專家預測者認為將 GPT-4 部署推遲六個月並採取更低調嘅傳播策略可以降低加速風險

過度依賴

總結:文章討論咗過度依賴 GPT-4 嘅風險,即用戶過度信任同依賴模型。

OpenAI CEO、CTO 談風險

幾日前 ABC 新聞發佈咗同 OpenAI CEO Sam Altman 同時任 CTO Mira Murati 嘅採訪。*(注:Mira Murati 喺 2024 年 9 月離開咗 OpenAI。)*佢哋講咗好多關於風險嘅嘢,你可以睇下面嘅影片

https://www.youtube.com/watch?app=desktop&v=540vzMlf-54

結論

OpenAI 語言模型同 Microsoft Office 365 嘅整合有巨大嘅潛力。GPT 4 毫無疑問比之前嘅版本強好多。但最令我印象深刻嘅係 OpenAI 同 Microsoft 推進嘅速度——呢個導致 AI 開發同採用嘅整體加速。我對 AI 發展總體樂觀,但我覺得我哋需要確保關於各種風險嘅討論進入主流。我可能錯,但感覺發展嘅速度正在超越我哋思考其影響嘅能力。

你覺得點——我哋喺 AI 方面係咪行得太快,定係呢個係啱嘅速度?我好想聽下你嘅睇法。

祝好,

Chandler

繼續閱讀

我嘅旅程
聯繫
語言
偏好設定