摘要
- 文章編號:
- 投稿日期:2008/10/1
- 作者:李開文
- 第一次審查:
- 第二次審查:
- 第三次審查:
- 備註:
下一代的P2P運算
P2P的重要性
我們所面對的真實問題
舉個例子,如果今天每個人的電腦,都很夠很穩定地儲存自己寫的部落格(而且自家電腦又快,不用等某X小站龜速的回應),只要你敢寫,永遠不會不見。
那再加上如果有個地方,用很簡單的方法訂閱,讓大家可以「看見」自己寫了新的部落格文章,那有多好,是吧!
那對服務提供的業者呢?一來,業者不需要承擔資料消失的風險,因為「有種方法」可以讓資料永續存在,不因用戶重裝電腦而消失。
二來,業者只要定期地去分析分類索引,做個首頁讓想要看的人可以快速地連到「某台電腦」並且讀取網頁就好了。
這個某台電腦在哪裡,已經是一個大問號。而這個問號的背後,又遇到一個情況,那就是如果一個台灣人想要讀一個在美國的好友的部落格,因為相隔甚遠,勢必要遇到一些讀取緩慢甚至失敗的問題。
而最後的疑問還是,根本無人可以保證上一段話「」裡的那兩點。沒有方法可以保證資料的存在性,也沒有方法可以在提供資料的用戶關機後還能夠確保資料被讀取。
該怎樣解決?這個時候便讓我想起攻殼機動隊電影版第一集裡的一句話:「網路是無遠弗屆的」
我們接下來再來討論這個問題。
群聚性
我個人相信,未來的幾年,P2P技術一定會慢慢地與Web和Mobile技術結合在一起。
人們會慢慢開始發現,他們每一個連結並散到網路上的訊息,都會讓他們在各個層面發現與自己類似的人。
舉例說,當你在使用Last.FM的播放器,將你聽過的歌曲資訊傳到網路上,雖然只是一個小動作,但其實使用者在聽歌的時候,無非也只是想要認識能夠一起聽歌的人,不然就是希望可以找到更多免費且類似的歌曲。
人們不管是使用哪種服務,總是希望可以螞蟻雄兵,藉群眾來獲得更大的效益。
而一間公司是否能有效率地使用用戶端資源,也就變成這間公司的一個最大的命脈。
儘管他們有非常多的創意,當服務資訊瞬間累積的時候,他們也會發現根本毫無能力可以儲存,分析,計算。
而那些能夠分析的公司,也通常是大企業,因為他們有雄厚的資本額可以建立這些分析的機制。
當初Google也是藉著搜尋技術以及廣告而起家,才能有資本;而許多小公司,連技術都不見得可以拼得過,又能夠累積多少用戶來強調他們的廣告能見度,藉此吸引廠商?
想要藉著新技術,或是以老鼠會的方式來招攬人頭客戶的方式根本行不通。
我想,真正能夠顧及使用者需求,並讓使用者享受功能的時候也付出,才是歷久不衰的道路。
而如今,我認為P2P的網路結構正是符合這種意義,並且有效率的方法之一。
在設計服務的同時,不妨也思考一下這些提供資訊的節點互相連結的方式。
別用別單純地 Flooding的方式,期待使用者的訊息慢慢地傳到分析用的伺服器,或許也可以思考怎樣構成一個有結構的網路(多維度,圓環狀,階層化…等)來加速同類型使用者的群聚性。
從另一個角度說,就像是訊息傳遞的更快的社群。
中介資料
一方面讓網路產生群聚性,而另一方面,使用者就要積極地產生資料,來讓網路能夠分析並且群聚。
在我寫到Web2.0有關的幾篇文章裡有提到,Web 2.0便是有這樣的特性,讓使用者不斷地去輸入以便產生資料。
這樣的資料我們稱做中介資料(Metadata),也就是描述資料的資料。
舉例來說,你撰寫了一篇遊記,這篇文章裡有十個關鍵字,都是這篇遊記裡的重點地點,像是「台北」「新竹」。
你上傳了一些照片,裡面有這些照片的座標。那麼這個時候,搜尋引擎就分析這些中介資料,來讓大家在搜尋台北和新竹的時候能找到你。
而這不僅加速了搜尋引擎的效率,因為他不見得一定要掃瞄整篇文章才能做索引,同時也加速了這篇文章定位的準確性。
在舉個分享檔案的常見例子。假設我是一個喜歡電影的人,而我在我的興趣裡寫說「電影」。
如果是以往,我要找到跟我有同樣興趣的人,並且互相交換電影,那就是先在交友網站認識後,剛好也發現對方也在開驢子或BT。
但如果分享軟體本身就整合了 Social的功能,使用者平常在編輯自己的相關資料的時候,也同樣地更能增加下載軟體的群聚性,增加下載速度。
如何整合
格網的優點是整合,而P2P的優點是搜尋,鬆散。
比起以往使用某一種格網使用的傳輸協定,去包裝P2P的傳輸協定,未來整合的方式比較著重在將格網層的資源要求,轉換為P2P層的資源要求。
舉例來說,如果有人對格網服務要求一個檔案,那這個服務便馬上要對下層的P2P網路進行搜尋,看誰有這個檔案。
也因此P2P網路就比需採用更快的Structured Overlay,並且與上層的格網服務作緊密的整合。
整合SuperPeer或許是一個加快網路查詢的方法,但也會給SuperPeer太大的負擔,因此這樣類型的節點,要能夠地轉移。
而檔案要如何保持存在網路上,也是一個問題。
目前有相當多的研究都是著重在複寫(Replication)演算法上,許多複寫演算法要能夠探知整個網路的狀況,檔案的存在度,是非常繁瑣的作法。
而我相信未來的電腦無論cpu,網路速度都會提昇,將網路的中介資料切割後再逐漸掃描,會是一個趨勢。
結論
在未來,每個人手上都會有一台以上的電腦。
大家都會有手機,桌上型電腦,甚至數位相框,電冰箱…等家電也都是電腦。
而這些電腦一旦串連起來,將會產生相當龐大的計算能力。
你手上的電腦,將是維持世界運轉的一小小動力之一,當你使用一個方便服務的時候,也可以想想有些資料是從你的手機上貢獻出來的。