新北樹報

在地、記憶、連結、創生

什麼是NLWeb 以及你的網站為什麼需要NLWeb

什麼是NLWeb

NLWeb(Natural Language Web) 是微軟於 2025 年發表的開源專案

目標是讓任何網站都能輕鬆導入對話式 AI 介面
讓用戶能像跟 ChatGPT互動一樣,直接查詢網站內容

例如
零售網站可用 NLWeb 建立協助顧客挑選商品的聊天機器人
食譜網站可用 NLWeb 推薦搭配菜餚
讓網站成為 AI 應用程式

但這都不是微軟的目的

微軟想做的是Agent to Agent
讓AI回應AI

類似的LLM.txt

現在有很多機器人在網路上爬資料
因此有個類似的協定叫LLM.txt
簡單來說就是寫一個專門給AI看的網頁
讓來訪的AI更清楚知道你的網站在做什麼

因為傳統網頁是給人看的
而人類需要有HTML將網頁內容進行編排
才能有更好的閱讀體驗 (例如縮排 標頭 排版等)

AI不需要這個東西
反而這些多餘的標記只會佔用AI的Context
因此才會專門準備一個給AI看的頁面

例如Anthropic就有自己的LLM.txt
這樣當AI在爬取網站時 只需要看這份文件 就知道相關資源放置的位置 不需要將整個網站爬下來

簡單來說
原本大家都擔心AI來網站爬資料做各種阻擋
但後來發現怎麼防都防不住
倒不如讓AI更好的爬 爬完了趕緊走 我還有其他客人

那既然我們都有了LLM.txt 為什麼還需要NLWeb?
第一點就是邏輯的隱蔽性

LLM.txt是將所有的資料全部丟給來訪的AI
但有些時候我們還是有想保留的資訊

例如零售網站可能會想隱藏如何幫客人挑選商品的邏輯
「我現在想要參加一個商業聚會 該如何搭配服裝」
這個就不可能寫在LLM.txt裏面 因為這是商業機密

NLWeb可以把這些商業邏輯寫在自己的AI內
當有外部的AI來問商品時 你就可以用自己藏好的商業邏輯去幫客戶挑選他要的商品
或是推銷自己想推銷的產品

第二點是增加資料的準確性

以Anthropic來說 以往都是將文件寫在LLM.txt內
但這就很考驗來訪AI的能力
如果對方AI能力太差 也沒辦法給出很好的答案

有了NLWeb之後現在來訪的AI可以直接問Anthropic的NLWeb
「我用 Python,請給我串接 user_info API 的範例程式碼,並說明必要的認證方式」
然後Anthropic的NLWeb直接回答串接的方式

準確來說
LLM.txt 更多是被動提供靜態指引,NLWeb則允許動態的回應
網站從「內容提供者」變成「服務提供者」

這跟微軟想摧毀Google有什麼關係?

Google之前一直不願意在搜尋內加上AI mode (直接給答案而不是搜尋結果)
其一是擔心失去原本的合作夥伴(也就是出版商)以及廣告收入
其二就是現在幾乎由Google自己建立的SEO規則

但現在Google已經開始在嘗試搜尋的AI mode
讓原本已經逐漸轉向使用ChatGPT等AI工具來搜尋的用戶有了回到Google的理由

既然這樣
微軟也覺得反正多年來Bing都打不贏Google
乾脆不打了 我們換戰場吧

現在的搜尋引擎的運作如下

  1. 內容提供者將內容發佈到網路上
  2. 祈禱被Google收錄
  3. Google海巡後將資料收錄到他們的資料庫內 並建立索引
  4. 用戶輸入想問的問題
  5. Google的搜尋引擎理解用戶的問題後 從資料庫找出內容最適合回答問題的連結

但是微軟想要改變流程

  1. 內容提供者在網路上提供NLWeb (甚至都不必做網頁 只需要一個後端Server就好)
  2. 用戶對AI Agent提問
  3. AI Agent自動對網路上的各種NLWeb提問 並統整答案回應用戶

例如使用者對AI Agent提出想去登山
這個AI Agent知道使用者衣櫃缺一件登山用的機能上衣
喜歡綠色 能接受的價格範圍大約在1500~3000之間

然後就到各個NLWeb內提出需求 由各家服飾網站挑選適合的衣物
順便回應如何搭配可以有折扣
AI Agent統整之後做出比較表給使用者參考
或者就直接選好幫使用者刷下去 順便訂個車票或機票

整個流程完全繞過了Google的索引
原本能不能給出好的答案是掌握在Google的手上
現在將權力交還給了各家網站 由各家網站決定了搜尋結果的品質
成功的話就是下一個典範轉移
傳統 SEO 將失去意義
取而代之的可能是「Agent Optimization (AO)」

當然這會有一些問題

  1. 問題會回到內容提供者的NLWeb該怎麼被AI Agent收錄
    但這裡至少是一個新的戰場
    微軟有機會在這裡佈局
    最有可能下手的地方就是目前市佔率最高的桌面系統Windows
    只要使用者習慣使用桌面版Copilot去網路上的NLWeb找資訊
    那收錄NLWeb的規則就在他們手上
  2. 這裡沒有廣告商生存的空間
    AI Agent 的目標是最高效率地滿足使用者需求
    這與廣告商希望爭取曝光的目標可能存在衝突
    我想了幾天 沒有想法 可能我對廣告這塊不熟
  3. 有些用戶就是喜歡在網路上逛的感覺
    這個簡單
    AI Agent選品完之後做一個網站讓使用者在裡面逛AI選過的商品
    然後決定後直接叫Agent下單 甚至都不用進到賣家的網站內(可能到時候賣家也沒網站了 就放一台NLWeb的Server在網路上)

開源項目只是第一步

NLWeb只是微軟丟出的探路石 看市場的反應
後續肯定還有別的動作

因為建立框架後就需要幫助使用者遷移他們的使用習慣
至於微軟能不能從中獲利
就看微軟在Copilot這塊上的努力


使用者原本已經習慣看服務商的廣告來獲得免費的服務
未來會不會改成使用者付費訂閱AI Agent (因為第三方已經可以透過賣東西賺錢了)
或是如果AI已經強到可以在本地運算
就改成購買本地運算的硬體裝置(例如手機)來當自己的Agent購買商品

之後就看Google或其他公司該如何反擊
看看Google 花了二十年建立的搜尋帝國
會不會被一群「會說話的網站」瓦解

新北市新聞就看 新北樹報 深根樹林的在地媒體

探索更多來自 新北樹報 的內容

訂閱即可透過電子郵件收到最新文章。

探索更多來自 新北樹報 的內容

立即訂閱即可持續閱讀,還能取得所有封存文章。

Continue reading