既然你已經遊覽了機器學習仙境,現在讓我們調整檔位,看看這一切對你來說意味著什麽。就像《黑客帝國》中的紅色藥丸一樣,終極算法是通往不同現實狀況的大門:你已經生存在這個現實當中,但對它還不了解。從約會到上班、從自我認知到社會的未來、從數據分享到戰爭、從人工智能的危險到進化的下一步,新的世界正在形成,而機器學習是解鎖這個世界的鑰匙。本章將會有助於你在生活中充分利用機器學習,然後為即將到來的東西做好準備。機器學習不會單獨決定未來,這和其他技術一樣,真正重要的是我們用它決定要做的事,現在你有了用於決定的工具。


    在這些工具當中最主要的是終極算法。無論它什麽時候會出現,無論它看起來是否像煉金術,這些都沒有它涵蓋的東西重要:一種學習算法不可或缺的能力,以及這些能力能讓我們實現什麽目的。我們也可以把終極算法當成現在和未來學習算法的合成圖。我們可以很方便地將該合成圖用在思維實驗中,代替產品x或者網頁y中的特殊算法,這些產品或者網頁所屬的公司不太可能會分享它們的產品。由此看來,每天與我們互動的學習算法是終極算法的萌芽版,我們的任務就是了解它們,推動其成長以更好地滿足我們的需要。


    在未來10年,機器學習會大範圍影響人類的生活,隻用一本書的一個章節無法描述清楚。即便如此,我們已經看到許多重複出現的主題,這些主題就是我們的關注點,並以心理學家所謂的“心理理論”作為開始,更確切地說,是以你的心理的計算機理論作為開始。    <h2>性、謊言和機器學習</h2>


    你的數字化未來從一個感悟開始:每次你和計算機相互作用時——無論是你的智能手機,還是幾千英裏以外的服務器——你都會從兩個層麵上這樣做。第一個層麵是,當場就得到你想要的東西,如問題的答案、你想買的產品、一張新的信用卡。第二個層麵,從長遠來看也是最重要的一個,就是教會計算機關於你的東西。你教會它越多的東西,它就越能更好地為你服務(或者操縱你)。生活就是你和包圍你的學習算法之間的遊戲。你要麽拒絕參與遊戲,那麽你就得在21世紀過20世紀的生活;要麽從遊戲中獲勝。你想讓你的計算機擁有你的哪個模型?為了產生那個模型,你能給它什麽數據?當你和一種學習算法互動時,腦子裏就應該一直思考這兩個問題,就像你和其他人互動時一樣。愛麗絲知道鮑勃對她有一個心理模型,並試圖通過她的行為來塑造這個模型。如果鮑勃是她的上司,她努力給他能幹、忠誠、努力工作的形象;如果鮑勃是她想誘惑的對象,她就以最性感的一麵出現。對於別人在想什麽這一點,如果無法憑直覺知道並做出反應,那麽我們就很難在社會上活動。當今世界新奇的地方在於計算機(不僅僅是人類)也開始有心理理論了。它們的理論仍然有點粗糙,但發展得很快,而為了拿到我們想要的東西,不得不與它們進行合作——不少於和其他人的合作。因此你需要計算機心理的理論,將評分函數(你認為學習算法的目標是什麽,或者更準確地說,它的主人的目標是什麽)和數據(你認為它知道的東西)帶入之後,這就是終極算法要提供的東西。


    以網上約會為例。當你利用match、eharmony或者okcupid(都為美國知名的約會和社交網絡平台)(有必要的話,暫停你的懷疑)時,你的目標很簡單——找到最佳的可能約會對象。但很有可能,在你遇到真正喜歡的人之前會費很大勁,可能還會有幾次令人失望的約會。一個頑強的呆子會從okcupid上摘出兩萬條簡介,做他自己的數據挖掘工作,然後在第88次約會中找到他的夢中女郎,然後將他這段漫長的旅程告訴《連線》雜誌。為了減少約會次數、少費工夫,你的兩大工具就是你的簡介和你對推薦對象的反應。有一個受人歡迎的選擇就是說謊(比如關於你的年齡)。這可能看起來不道德,更不用說當你的對象知道事實後,事情會搞砸,但這裏有一個轉折。對網上約會在行的人已經知道,人們會在簡介中的年齡問題上撒謊,然後根據情況進行調整,所以如果你說出自己的真實年齡,實際上就告訴他們你比實際年齡要大。反過來,進行配對的學習算法認為,和真正選擇的約會對象相比,人們寧願選擇更年輕的人。邏輯上的下一步,就是更大程度地謊報他們的年齡,最終解釋這個屬性將沒有意義。


    對於所有關心的問題,更好的辦法在於集中於特殊、非比尋常、預測能夠成功配對的屬性上。在這種意義上,它們會挑出那些你喜歡但不是所有人都喜歡的人,因此競爭也就沒有那麽大了。你的工作(也包括你未來約會對象的工作)就是提供這些屬性;媒人的工作就是掌握這些屬性,和舊時媒人的做法一樣。和舊時媒人相比,match的算法有一個優勢,它知道更多的人,但劣勢在於它對這些人的了解沒那麽深。樸素學習算法,例如一台感知器,會滿足於普遍化的觀點,如“紳士都喜歡金發碧眼的女人”。更加複雜的學習算法會發現諸如“對音樂有另類品位的人往往適合在一起”的模式。如果愛麗絲和鮑勃都喜歡碧昂斯,單憑這一點他倆很難配對在一起;但如果他們都喜歡艾倫主教,這點至少讓他們成為靈魂伴侶的可能性變得更大。如果他們都是一個樂隊的粉絲,但學習算法不知道這個樂隊,那就更好了,但隻有一種關係算法,如煉金術,才能不費力地掌握這一點。學習算法越好,就越值得你花時間讓它了解你。但根據經驗,你想讓自己足夠與眾不同,這樣它就不會將你和“普通人”混淆(記住第八章的鮑勃·伯恩斯),但也別太與眾不同,這樣它就沒辦法理解你了。


    網上約會實際上是一個有點難以理解的例子,因為化學反應難以預測。兩個在約會中合得來的人,可能最後會相愛,並堅信他們就是天生一對。但如果他們最初話不投機,可能會覺得對方煩人,不想再見麵了。真正複雜的學習算法所做的,就是在每對似乎合理的一對情侶之間進行1000次蒙特卡洛模擬,然後通過那部分結果還不錯的約會對這些情侶進行排名。簡而言之,約會網站可以組織派對,並邀請那些對很多人來說可能會成為其伴侶的人,讓他們在幾個小時之內就完成需要幾周完成的事情。


    對於我們那些熱衷於網上約會的人來說,更即時有用的辦法就是選擇記錄哪些互動,以及在哪裏記錄。如果你不想讓亞馬遜對你的聖誕節購物品位產生疑惑,請在其他網站上進行(對不起了,亞馬遜)。如果你在家看不同種類的視頻,為了工作,在youtube上保留兩個賬號,在家一個,工作時一個,youtube會學著做出相應的推薦。如果你打算看一些一般不會感興趣的視頻,就先退出賬號。使用穀歌瀏覽器的無痕模式,目的不是為了非法瀏覽(當然,你絕不會這麽做),而是因為你不想讓當前搜索影響到未來的個性化定製。在網飛上,利用你的賬號來為不同的人添加簡介,這樣可以使你在家庭電影之夜免於r級片(即限製性影片)推薦。如果你不喜歡某家公司,可以點擊它的廣告,這樣不僅能夠即時花費它的錢,通過為那些不太可能購買產品的人展示廣告,還可以教會穀歌來再次浪費它的錢。如果你有非常特殊的搜索項,想讓穀歌未來能夠準確回答,那麽花點時間來查閱後來顯示結果的頁麵,看看有沒有相關鏈接,然後點擊鏈接。較為普遍的是,如果一個係統不斷向你推薦錯誤的東西,通過找到並點擊多個準確鏈接的方式來試圖調教係統,然後返回來看看它是否起作用了。


    雖然如此,但這可能是繁重的工作。不幸的是,所有這些所闡明的,就是當今你和學習算法之間的通信通道是多麽狹窄。你應該有能力告訴它關於你自己的信息,以及你想要的東西有哪些,而不僅僅是讓它間接從你的行為中學習。不僅如此,你應該有能力檢查你的學習算法模型,然後按照期望對它進行修正。如果學習算法認為你在撒謊或者缺乏自我認知,那麽它仍會決定忽視你,但至少這一次可以考慮你的輸入信息。因為這一點,模型需以人類能理解的方式呈現,例如,需要規則集而不是神經網絡,而且除了原始數據,它需要接受將一般陳述當作輸入,正如煉金術一樣。所有這些讓我們想知道學習算法能有多好的一個關於你的模型,以及你會利用這個模型幹什麽。    <h2>數碼鏡子</h2>


    花點時間來考慮你記錄在世界上所有計算機裏的數據:你的郵箱、辦公文檔、文本;推特、臉書和領英賬號;你的網頁搜索、點擊、下載、購買;你的信用卡、傳真、電話、健康檔案;你的健康追蹤器統計;你的汽車微處理器記錄下的駕駛情況;你閑逛時被手機記錄下來的信息;你拍過的所有照片;監控攝像機裏的簡短片段;你的穀歌眼鏡片段。如果未來的傳記作者沒有什麽可利用,除了你的“數據排放”,他會描寫出怎樣的一個你?也許是一個在許多方麵都很準確、很詳細的你,但也有可能缺失某些東西的你。為什麽你會在一個風和日麗的日子決定改變職業生涯?自傳作者提前預測到這一點了嗎?那麽你某天遇見並偷偷難以忘懷的那個人呢?那位作者能夠通過發現的片段返回來,然後說“啊,原來在那兒”嗎?


    有一個令人冷靜(也許是安心)的想法,就是當今世界上沒有哪種學習算法可以利用所有這些數據(甚至美國國家安全局也不可以)。即使有,該算法也不知道如何將數據變成逼真的你。假設你帶著自己的所有數據,然後把數據交給真實的未來終極算法會怎樣呢?該算法已經包含所有我們教過它的所有東西。它會學習關於你的一個模型,而你可以用指尖驅動那個模型,並把它放在口袋裏攜帶,隨意對它進行檢查,然後將它用於你喜歡的東西。當然,這對內省法來說,是一個很好的工具,就像在鏡子裏看自己一樣。它也會是一麵數碼鏡子,不僅能夠顯示你的外表,還能顯示所有關於你的、能觀察到的東西——一麵栩栩如生,並能和你對話的鏡子。你會問它什麽問題?你可能不會喜歡它的某些回答,但這就更有理由來好好考慮這些答案;有些答案可能會給你新的想法和方向。你的終極算法模型甚至可以幫你成為更好的人。


    除了自我提升,也許第一件你想讓自己的模型完成的事就是代表你與世界妥協,使它在網絡空間放鬆下來,同時為你尋找各種各樣的事物。從世界上所有的書中,它會給你推薦十幾本你接下來可能想閱讀的書,見解比亞馬遜能想到的還要好。對於電影、音樂、遊戲、衣服、電子產品來說,道理也一樣——應有盡有。它可以讓你的冰箱一直處於裝滿的狀態,這是毫無疑問的。它可以對你的文本郵件、語音郵件、臉書帖子、推特信息進行過濾,而且在合適的時候會代表你回複這些消息。它還會為你處理生活中的所有小煩惱,比如查看信用卡賬單、拒絕亂收費、做計劃、更新訂閱、填寫納稅申報單。它會為你的疾病找到治療方法,由你的醫生來管理該方法,並從沃爾格林公司預訂。它會讓你注意到有意思的工作機會、提議度假勝地、建議你該為哪個候選人投票、尋找潛在的約會對象。另外,你和約會對象成功配對以後,它會與你約會對象的模型合作,為你們兩人挑選彼此都喜歡的餐廳。這時事情才真正開始變得有意思起來。    <h2>充滿模型的社會</h2>


    在這個快速接近的未來社會中,你不是唯一擁有“數碼另一半”的人(另一半會24小時按照你的要求辦事),每個人都會有自己的詳細模型,這些模型會一直互相對話。如果你正在找工作,而x公司正在招聘,它的模型會對你的模型進行麵試。這很像一場真實、身臨其境的麵試——你的模型最好還是別主動提供你的負麵信息等——但這個過程隻會花不到1秒的時間。你在未來領英賬號上點擊“找工作”,會馬上進行宇宙中所有公司的工作麵試,雖然遠,但與你的參數(專業、地點、薪資等)匹配。領英會馬上反饋最佳公司列表,你可以從中挑選想進行細談的公司。約會也是一樣,你的模型會進行數百萬次約會,所以你就不必了。星期六,你會在okcupid組織的派對上認識最佳約會人選,你知道自己也是對方的最佳約會人選——當然,你也知道對方其他的約會人選也在屋裏。這肯定是一個有意思的夜晚。


    在終極算法的世界裏,“我的人會聯係你的人”會變成“我的程序會聯係你的程序”。每個人都會有一個機器人隨從,在這個世界遊刃有餘地存在。交易完成了、條款談妥了、安排做好了,這些都會在你舉起手指頭之前完成。今天,醫藥公司會鎖定你的一生,因為它決定給你開什麽藥;明天,你消費的每種產品或者服務的經銷商會定位你的模型,因為模型會為你篩選。它們的機器人的任務就是讓你的機器人來購買。你的機器人的工作就是看穿它們的口號,就像你看穿電視廣告一樣,但會比你看得更細致,你絕不會有時間和耐心來完成。買車之前,你的數碼另一半會瀏覽所有的參數並和製造商討論這些參數,然後研究世界上每個人對那輛車及其替代品的評價。你的數碼另一半就像指引你生活的力量一樣,它會去你想去的地方,但讓你花費的時間比較少。這並不意味著你最終會陷入“過濾泡泡”的困境中,看到的隻是你覺得可靠並喜歡的東西,意料之外的選擇則排除在外,你的數碼另一半能更好地了解這一點,其特點包括對機遇留有餘地、讓你盡享新體驗、尋找發現珍寶的運氣。


    即使會更有意思,但當你找到汽車、房子、醫生或者工作之後,這個過程並不會結束。你的數碼另一半會繼續從經曆中學習東西,就像你一樣。它弄清楚什麽能起作用、什麽不能,不論是在工作麵試、約會,還是在尋找房產的過程中。它代表你和人們、組織進行互動,並學習關於它們的東西,然後從你與他們的真實互動中掌握技能(這一點更重要)。它預測愛麗絲會是你很棒的約會對象,但你時間不太方便,因此它會假設可能的原因,並在你的下一輪約會中進行驗證。它會把最重要的發現與你分享(“你覺得自己喜歡x,但實際上你更傾向於y”),將你各種各樣的住酒店經曆和這些酒店在“貓途鷹”(tripadvisor)上的評價相比較,它會弄清楚哪些小道消息是真的並在以後將其找出。它不僅掌握網上哪個商家值得信賴,還要學會如何解碼那些不那麽值得信賴的商家所說的話。你的數碼另一半有一個世界模型——不隻是一般的世界,還指與你產生關聯的世界。當然,其他所有人也會有自己不斷演進的世界模型。一段相互關係中的每一方都會向世界模型學習,並將其學到的東西運用到下一段相互關係中。你有每個和你有過相互關係的人以及組織的模型,而他們也會有你的模型。隨著模型的改善,它們之間的相互關係就會變得越來越像你在真實世界中的相互關係一樣——除了高出幾百萬倍的速度以及存在於矽片中之外。未來的網絡空間會是一個巨大的平行世界,隻會選擇最有希望的東西在真實世界中進行試驗,它就像一種新的全球性意識和人類身份。    <h2>分享與否?方式、地點如何?</h2>


    當然,你獨自一人了解這個世界會比較緩慢,即使你的數碼另一半了解世界的速度會比實實在在的你高出數量級的倍數。如果其他人了解你的速度比你了解他們的速度要快,那麽你就會陷入麻煩。解決辦法就是要分享。100萬個人了解一家公司或者一種產品的速度會比單個人的速度快很多,隻要他們能夠集中各自的經曆。但你應該和誰分享數據?這也許是21世紀最重要的問題了。


    當今你的數據可以分成四種:你和所有人分享的數據,你和朋友或者同事分享的數據,你和各種公司(不論是否有意)分享的數據,以及你不與別人分享的數據。第一種數據包括yelp(美國最大的點評網站)、亞馬遜、貓途鷹上的評論、易趣網的反饋評分、領英的簡曆、博客、推文等。這類數據價值巨大,是四類數據中問題最少的一類。你真的想讓每個人都能用到這些數據,每個人也會從中受益。唯一的問題在於,掌握這些數據的公司不一定會允許對它們進行大量下載,以便用於構建模型。它們應該允許下載行為。時下你可以去貓途鷹,查看你正在考慮入住的指定酒店的評論和星級評分,但如果要查看酒店總體上是好還是壞的模型呢,而通過該模型,你可以對當前有極少可靠評論的酒店進行評分?貓途鷹可以掌握該模型,但如果你想要一個決定你對酒店感覺好壞的模型呢?這就需要關於你的,但你不想和貓途鷹分享的數據。你想要的,就是一個可信賴的、能將兩類數據結合起來,並能給你結果的一方。


    第一類數據應該不會存在問題,但實際上並非如此,因為它與第三類數據重疊了。你在臉書上與朋友分享更新、照片,你的朋友也和你分享,但每個人都會利用臉書來分享他們的更新和照片。幸運的臉書,它有10億個朋友。漸漸地,它對於世界的了解比任何人都要多。如果它有更好的算法,就能了解得更多,而這些算法每天都會進步,這對我們數據科學家來說是一種恩惠。作為回報,它會為你的分享提供基礎結構,這就是你使用臉書所做的交易。隨著學習算法的改善,它由數據產生的價值會越來越大,有些價值會以更相關的廣告、更優質的服務的形式回饋你。唯一的問題在於,臉書也可以隨意使用你不感興趣的數據和模型,你卻無法阻止它。


    這個問題會伴隨你與公司分享的數據一起突然徹底出現,包括如今你在線上、線下做的許多事情。也許你沒注意到,其中會有一個收集你的數據的瘋狂比賽。每個人都喜歡你的數據,這也難怪,它們是通往你的世界、你的錢包、你的投票甚至你的心靈的大門。但是每個人隻能擁有它的一小部分:穀歌掌握你搜索的內容,亞馬遜知道你網購的東西,美國電話電報公司會看到你的通話記錄,蘋果知道你下載的音樂,西夫韋懂得你購買的雜貨,美國第一資本投資國際集團了解你的信用卡交易記錄。諸如安客誠(acxiom)之類的公司會整理並銷售關於你的數據,但如果你可以對其進行檢查(對於安客誠的情況,你可以在aboutthedata檢查),數據並不多,而且有些還是錯誤的。沒有人能夠了解到完完整整的你。這有好處,也有壞處。有好處是因為如果某人做到了,他就會掌握很大的權力;有壞處是因為隻要事實是那樣的,就不會有你的360°模型了。你真正想要的是數碼的你,以及你是唯一擁有者,其他人隻有根據你的意願才能獲得東西,最後一類數據(你不想分享的數據)也存在一個問題,即也許你應該分享它。也許你沒想到要那麽做,也許做起來沒那麽容易,或者也許你隻是不想那麽做。如果是最後一種情況,你應該考慮道德上是否有義務來進行分享。我們見過的一個例子就是癌症病人,他們可以通過分享腫瘤的基因組和治療史來為治愈癌症做貢獻。分享的好處遠遠不止這點。所有關於社會和政策的各種問題也許都可以通過了解我們每天產生的數據來得到解決。社會科學正進入一個黃金時代——隻要數據麵向研究人員、政策製定者、老百姓。這並不意味著讓別人窺探你的私人生活,而是說要讓他們看到已經掌握的模型,而這個模型應該隻包含統計信息。因此,在你和他們之間,需要一位可靠的數據經紀人,保證你的數據不會被濫用,也沒有哪個免費使用者會在不分享數據的情況下就享受到好處。


    總之,所有四類數據的分享都有問題。這些問題有一個共同的解決辦法:新型公司與你的數據的關係,就像銀行和你的錢的關係一樣。銀行不會偷你的錢(有也是極少數)。它們應該明智地對它進行投資,而且你的存款已經過fdic(聯邦存款保險公司)承保。時下有許多公司提出要加強你在雲盤某處的數據,但這些數據與你的私人數據銀行還有很大差別。如果它們是雲提供商,則會把你限製起來——一項大禁忌(想象一下,你把錢存在美國銀行,而且不知道你是否可以徹底把錢轉賬到富國銀行)。一些新創公司提出要貯藏你的數據,並把數據交給廣告商,以換取折扣;但對我來說,這樣做沒有抓住重點。有時,你想免費為廣告商提供信息,因為這麽做符合你的利益;有時,你一點也不想提供,而“什麽時候分享什麽數據”也是你的良好模型才能解決的問題。


    我正在想象的那類公司會做以下幾件事來賺取訂閱費。它會對你的網上互動進行匿名處理,並通過服務器確定這些互動路線,然後通過其他用戶將這些互動集合起來。它會把你這輩子所有的數據儲存在一個地方——包括你每天24小時的穀歌眼鏡視頻流(如果你有)。它會對關於你和你的世界的完整模型進行學習,並對其進行持續更新。它會代表你使用模型,並一直做你要做的事,發揮模型的最大能力。公司對於你的基本承諾是,你的數據和模型絕不會在損害你利益的情況下被使用。這樣的保證真的過於簡單,畢竟你本身就無法保證你絕不會做損害自己利益的事。但公司的存在就取決於這樣的保證,就像銀行的存在取決於它保證不會弄丟你的錢一樣,因此你應該信任這家公司,就像你信任你的銀行一樣。


    這樣的一家公司會很快成為世界上最有價值的公司之一。就像《大西洋月刊》的亞曆克西斯·馬德裏加爾指出的那樣,當今你的簡介也許能通過一分錢或者更少的錢來買到,但一個用戶對於互聯網廣告業的價值可能是每年1200美元,穀歌掌握的你的那部分信息價值約20美元,臉書的是5美元,等等。除此之外,還沒有誰能全部擁有各部分的數據,而且完整的數據比各部分數據的總和要多——基於你所有數據的模型,要比基於1000個部分數據的1000個模型要好很多——而我們正在以每年輕易超過1萬億的數據作為目標,相當於美國這樣的經濟體。利用這種數據創建一家《財富》500強公司並不會需要很多費用。如果你想接受挑戰並最後成為一名億萬富翁,那麽記住你首先是在什麽地方得到這個想法的。


    當然,當前的一些公司想擁有數碼的你,穀歌就是其中一個。謝爾蓋·布林說:“我們想讓穀歌成為你大腦的第三個組成部分。”穀歌的一些收購和用戶的數據流補充公司的數據庫的好壞表現不無關係。但是,雖然諸如穀歌和臉書之類的公司處於領先地位,但它們並不適合作為你的數碼家園,因為它們存在利益衝突。它們通過廣告分析來謀生,因此得權衡你的利益和廣告商的利益。你不會允許自己大腦的第一或者第二組成部分各有忠心,第三組成部分就更別提了?


    如果你的模型看起來像罪犯的模型,也許會發生意想不到的事情,比如政府可能會傳訊你的數據,甚至預防性地監禁你,有一點《少數派報告》的風格。為了搶先一步,你的數據公司可以對一切加密,讓你來保管鑰匙(如今你甚至不用解密數據就可以計算加密數據)。你也可以把它保存在家裏的硬盤中,公司會把軟件租給你。


    如果不喜歡盈利實體拿著通往你王國的鑰匙,可以加入一個數據聯盟(如果在你的網絡區域沒有聯盟,可以考慮啟動一個)。20世紀需要工會來協調工人與老板之間的權利,21世紀出於同樣的原因也需要數據聯盟。公司和個人相比,收集和使用數據的能力要強大很多,這導致了權利上的不平衡。數據越有價值,就越能從中掌握更好、更有用的模型,不對稱也就越嚴重。數據聯盟讓其成員與公司就其數據使用進行平等交易。也許工會能夠使活動開展起來,並鞏固其成員身份,方法就是為其成員開啟數據聯盟。但工會是根據職業和地理位置組織起來的,數據聯盟就比較靈活——加入和你有很多共同點的人群,那樣掌握的模型會更有用。請注意,加入數據聯盟並不意味著可以讓其他成員看到你的數據,這僅僅表示讓每個人都能利用通過共享數據掌握的模型。你的數據對世界的影響力和你的投票一樣,或者會更大,因為你隻會在選舉日去投票處投票,其他時候,你的數據就是你的選票。站起來,表明你的立場!


    目前為止,我還沒有說到“隱私”這個詞,這並非意外。隱私隻是數據分享更大問題的一方麵,如果我們在損害整體的情況下來關注它,就像當今爭論大部分所關注的那樣,那麽就會有得出錯誤結論的風險。例如,除了最初的目的,法律禁止將數據用於其他用途,這就顯得很缺乏遠見(《蘋果橘子經濟學》中沒有哪個章節是依據該項法律規定寫的)。當人們利用隱私來換取其他好處時,正如當在網上填寫簡介時,隱私表現出的隱含價值比你問他們“你在意你的隱私嗎”這種抽象問題的價值要低得多。但依據後者,隱私之爭往往更容易陷入圈套。歐盟法院發布命令,人們有權利被忘記,但也有權利來記憶,無論是用他們的神經元還是硬盤。公司也一樣,在一定程度上,用戶、數據收集者、廣告商的利益是一致的。浪費注意力對誰都沒有好處,數據越好,產品也會越好。隱私並不是一場零和遊戲,雖然有時它經常被當作零和遊戲。


    掌握數據的你和數據聯盟的公司的樣子,對我來說,看起來就像是在未來社會數據變得成熟一樣。我們是否能到達那裏有待研究。當下,多數人沒有意識到有多少關於他們的數據正在被收集,以及潛在的代價和利益是什麽。各家公司滿足於繼續神秘地完成這件事,因為擔心引發譴責。但譴責遲早會發生,在後續的爭論中,會製定更加嚴苛的法律,最後對誰都沒有好處。最好讓人們現在樹立意識,選擇該分享什麽、不該分享什麽,以及如何、在哪裏分享。    <h2>神經網絡搶了我的工作</h2>


    你的工作會在多大程度上用到你的大腦?用得越多,你就越安全。在人工智能早期,人們普遍認為,計算機取代白領前會先取代藍領,因為白領工作更費腦力;結果卻並非如此。一方麵,機器人組裝汽車,但它們沒有代替建築工人;另一方麵,機器學習算法已經取代信用分析員和直銷商。其實,對於機器來說,評估信用申請表比走在建築工地不被絆倒要簡單,盡管對於人類來說恰恰相反。一個普遍的主題是,狹義定義的任務很容易通過數據來完成,但那些需要技能與知識廣泛結合的任務卻不能。你大腦的大部分都主管視覺和運動,這就意味著到處走走比表麵看起來要複雜得多。我們之所以覺得很簡單,是因為“到處走走”經過進化已經練習得近乎完美,所以很多時候是在潛意識中進行的。敘事科學(narrative science)這家公司有一種人工智能係統,可以寫出很好的棒球比賽總結,卻寫不好小說,因為(根據喬治·威爾的觀點)生活的內容要比棒球賽多很多。語音識別對計算機來說比較困難,因為要填補空白存在困難。字麵上說,就是那些說話人平時會省略的發音(當你不知道那個人在討論什麽時)。算法可以預測股票波動,但不清楚如何將股票波動與政治聯係起來。一項任務需要的背景信息越多,計算機能迅速完成它的可能性就越小。常識之所以重要,不僅是因為媽媽教會了你,還因為計算機裏麵沒有這些信息。


    防止丟掉工作的最佳辦法就是你自己對它進行自動化,這樣就可以把時間用在你之前顧及不到、計算機近期地無法做到的所有部分(如果沒有什麽任務無法完成,那麽就要在行業保持領先地位,現在就去找一份新工作)。如果計算機已經學會完成你的工作,不要試圖與它競爭,而要利用它。h&r blook公司(美國最大的報稅服務商)仍在運營,但報稅人的工作卻沒有以前那麽枯燥了,因為現在計算機承擔了大部分枯燥的工作(好了,也許這不是最佳例子,因為免稅代碼的指數級增長,是為數不多的能夠與計算能力指數級增長相抗衡的東西)。把大數據看作你知覺的延伸,把學習算法看作你大腦的擴展。當下最佳棋手是所謂的人馬怪(半人、半程序)。在其他許多職業中情況也是如此,從證券分析師到棒球球探。這並不是人類與機器的對抗,而是有機器的人和沒有機器的人之間的對抗。數據和直覺就像馬和騎手,而你不會試圖超過一匹馬,你在駕馭它。


    隨著技術的進步,人和機器更加密切的結合體就形成了:你餓了,yelp會推薦一些好吃的餐廳;gps會指引你方向;你開車,汽車電子會進行低水平控製。我們現在都已經是半機器人了。真正的自動化指的不是它代替了什麽,而是它增強了什麽能力。一些行業消失了,但許多新的行業誕生了。最重要的是,自動化使各類事情成為可能,這些事情如果由人類完成,將要付出很多代價。atm機(自動櫃員機)代替了一些銀行員工,但主要好處是它們讓我們隨時隨地都可以取錢。如果像素要通過人類動畫師來一次隻為一個上色,那麽就不會有《玩具總動員》和視頻遊戲了。


    盡管如此,我們可以詢問自己最終是否會徹底完成人類的工作。我覺得不會。即使這一天到來了(它不會很快就到),且計算機和機器人都可以把所有事情做得更好,但仍有一些工作會留給一些人。機器人也許可以很好地模仿酒保,甚至可與客人閑聊,但老顧客仍然會更喜歡一個他們認知的人類酒保,僅僅因為他們就是人類。擁有人類服務員的餐廳會有額外標誌,就像手工製品那樣。人類還是會去劇院、騎馬、航行,雖然我們已經有電影、汽車、摩托艇了。更重要的是,一些職業真的無法替代,因為它們的工作需要一種計算機和機器人在定義上無法擁有的東西:人類經曆。所謂人類經曆,指的並不是人際互動工作,因為人際互動要造假也不難,比如機器人寵物的成功。我指的是人文科學,準確地說,其領域包含一切沒有人類體驗就無法理解的東西。我們擔心人文科學正呈死亡螺旋下降趨勢,一旦其他行業實現自動化了,它就會東山再起。通過機器低成本完成的事情越多,人類學家的貢獻就越有價值。


    相反,讓人傷感的是,科學家的長遠前景並不是最光明的。未來,唯一的科學家很有可能就是計算機科學家,即從事科學研究的計算機科學家。之前被人稱為“科學家”的人(像我一樣)會將其畢生貢獻給理解計算機所做出的科學進步。他們的幸福感不會比以前明顯降低,畢竟科學對他們來說一直是一種業餘愛好。對於有技術頭腦的人來說很重要的一項工作會被留下來——留意計算機。實際上,這需要的不僅是工程師,基本上,這可能是所有人類的全職工作,即弄明白我們想從機器那裏得到什麽,並保證我們會得到這些東西——本章後部分會詳細談到。


    同時,隨著自動化與非自動化工作跨越經濟領域,我們可能會看到失業率漸漸增長,越來越多的行業薪水下探,無法自動化的行業越來越少,但報酬卻越來越高。當然,這種情況已經發生,但路還很長。過渡期會充滿騷亂,但多虧了民主,它會有一個圓滿的結局(緊握你的選票,它可能會成為你最有價值的東西)。當失業率上升超過50%時,甚至小於這一數字時,關於重新分布的態度會徹底改變。一批剛失業的大部分人會把選票投給慷慨的終身失業救濟金,以及用於資助他們的高昂稅收。這些做法並不會耗盡資源,因為機器會進行必要的生產。最終,一開始我們會討論就業率而不是失業率,而降低失業率將被看作進步的標誌(“美國正在倒退,我們的就業率仍然保持在23%”)。失業津貼將被發放給每個人的基本收入代替。不滿足於基本收入的那些人會賺得更多,在所剩無幾的人類職業中大賺一筆。自由黨和保守黨仍然會因為稅率而爭吵,但球門柱已經被永遠移走了。隨著勞動力總價值的驟減,最富裕的國家將是那些自然資源與人口比例最高的國家(現在移到加拿大了)。對於那些不工作的人,生活不會變得沒有意義,最多就像在熱帶島嶼上,那裏大自然的恩賜滿足了所有需求,生活才變得沒有意義。禮品經濟將會發展起來,開源軟件運動將是預告。人們在人際關係、自我實現、靈性中尋找意義,就和現在他們做的一樣。謀生的需要將會變成遙遠的記憶,這是我們克服的又一個人類的原始過去。    <h2>戰爭不屬於人類</h2>


    對服役自動化比對科學自動化要困難,但最終會實現的。機器人的主要用途之一就是完成那些對人類來說過於危險的任務,戰爭也一樣危險。機器人已經可以拆掉炸彈,而無人機可以使一個團看清整座山。自駕供應卡車和機器騾(robotic mule)正在研發當中。很快我們就要決定是否允許機器人自己扣動扳機。因為這樣做之所以存在爭論,是因為雖然可以讓人類遠離傷害,但遠程控製在移動迅速、不是你死就是我亡的情況中不太切實可行。反對的人認為,機器人沒有道德標準,所以無法讓它們決定某個生物的生死。但我們可以教會它們,更深層次的問題在於,我們是否準備好這麽做了。


    要重申諸如軍事需要原則、相稱原則、寬恕民眾原則等之類的總則並不困難,但它們與具體行動之間存在鴻溝,士兵的判斷就是要填補這道鴻溝。當機器人將阿西莫夫的機器人學三條定律運用到實踐中時,很快就會產生麻煩,他的故事就深刻闡明了這一點。總則通常要麽會有矛盾,要麽會自相矛盾,以免將所有情況都判定為非黑即白。什麽時候軍事需要會比寬恕民眾重要?沒有統一的答案,也沒有什麽方法來對一台包含所有可能性的計算機進行編程。然而,機器學習提供了替代的方法。首先,教會機器人來識別相關概念,例如,可以利用各類情況的數據集,這些情況包括:民眾得到與得不到寬恕,武裝反應相稱與不相稱等。然後以涉及這些概念的規則的形式,賦予它行為準則。最終,讓機器人學會如何通過觀察人類來應用這些準則:士兵在這種情況下會開火,但在另外一種情況下不會開火。通過概括這些例子,機器人可以掌握一個端到端模型,比如可以以大型多邏輯節點的形式來做道德決策。一旦機器人的決策和某個人類的一致,而這個人的決策又往往與他人的一致,那麽訓練就完成了,意味著模型可以被下載,並用於數千個機器人的大腦。不像人類,機器人在激烈的戰鬥中不會失去理智。如果機器人出現故障,製造商就得負責任;如果機器人打錯電話,教它的人就得負責任。


    這個方案的主要問題也許你已經猜到,就是讓機器人通過觀察人類來學習道德標準並不是一個好主意。當機器人看到人類的行為經常違背道德準則時,它就會變得非常困惑。我們可以清理訓練數據,方法包含所有這些例子:道德學家小組一致同意,士兵做了正確的決定,而專家小組成員也可以在學習之後,對模型進行檢查和微調以滿足他們的要求。意見可能難以統一,但是,如果小組包含所有各種不同的人,它就該被統一。向機器人教授倫理道德,因為它們的邏輯思維沒有負擔,這會迫使我們檢查我們的假設,然後對自己的矛盾行為進行分類。在這個領域裏(其他許多領域),機器學習最大的好處也許不在於機器學習了什麽,而在於通過教授這些機器,我們學會了什麽。


    另一個反對建立機器人軍隊的觀點是,它們使戰爭變得太容易。但如果我們單方麵放棄建立機器人大軍,可能會引起下一場戰爭。《邏輯反應》(the logical response)由聯合國和人權觀察組織主張,是一個禁止機器人戰爭的協議,和1925年頒布的禁止生化戰爭的《日內瓦公約》類似。但是,這裏忽略了一個重要的不同點。生化戰爭隻會增加人類的痛苦,但機器人戰爭可以很大程度上減輕痛苦。如果戰爭是機器人參與戰鬥,人類隻是指揮,就不會有人受傷或者死亡了。那麽也許我們該做的,不是放逐機器人士兵,而是(當我們準備好時)放逐人類士兵。


    機器人軍隊確實使戰爭發生的可能性變大,但它們也會改變戰爭的倫理學。如果目標是其他機器人,射擊與不射擊的困境會容易解決得多。現代觀點認為戰爭恐怖得無法形容,人們在迫不得已時才會采取戰爭手段。這種觀點會被一個稍有差別的觀點替代,即認為戰爭是一種毀滅性的狂歡,會使所有參戰方變得貧窮,所以最好避免戰爭,但也不能因為避免戰爭而付出所有代價。如果將戰爭還原為一場競賽,目的是看看誰的摧毀能力最強,那麽為什麽不比比誰創造的價值最多呢?


    無論如何,禁止機器人戰爭也許不太可行。未來無論是大國還是小國,都會忙著研發(而完全不是禁止)遙控飛機(未來戰爭機器人的前身),因為它們估計這樣做的好處大於風險。和所有武器一樣,自己擁有機器人,比信任另一方認為不該有機器人更安全。如果在未來戰爭中,數百萬架神風係列遙控飛機將會在幾分鍾之內摧毀傳統的軍隊,它們最好是我們的遙控飛機。如果第三次世界大戰會在數秒內結束,也就是一方控製另一方的係統,我們最好還是具備更加智能、更加快速、更加有複原力的網絡(離網係統不是解決辦法,因為雖然沒有經過網絡連接的係統不會被黑,但它們也無法和連接網絡的係統相比較)。總而言之,如果機器人裝備競賽能加速《日內瓦第五公約》[5]禁止人類參與戰爭的進程,也許這也是一件好事。戰爭會一直陪伴我們,但戰死則不一定是必然的。    <h2>穀歌+終極算法=天網?</h2>


    當然,機器人軍隊也會引起完全不一樣的恐慌。根據好萊塢電影,人類的未來將會被龐大的人工智能及其大量的機器小兵扼殺(當然,除非有一位有膽量的英雄在電影最後5分鍾挽回了局麵)。穀歌已經擁有這樣的人工智能所需要的龐大硬件,而且最近已經由一些機器人創業公司來運行了。如果我們將終極算法置入其服務器,那麽人類會毀滅嗎?當然會。是時候表明我的真正安排了,對於托爾金,我表示抱歉:     <blockquote>


    三大算法歸屬天下科學家,


    七大算法歸屬服務器工程師,


    九種算法屬於陽壽可數的凡人,


    還有一種屬於高居禦座的黑暗人工智能。


    學習算法之大地黑影憧憧。


    一種算法統領眾戒,盡歸羅網,


    一種算法禁錮眾戒,昏暗無光。


    學習算法之地黑影憧憧。    </blockquote>


    哈哈!嚴肅地說,我們該不該擔心機器人會接管世界?有種種不祥的預兆。一年接著一年,計算機所做的世界性工作並沒有變多,它們做得更多的是決策。誰拿到信用卡,誰購買什麽,誰得到什麽工作和什麽樣的升職機會,哪隻股票會上漲和下跌,保險花費多少,警官會在哪裏巡邏,然後誰會被逮捕、刑期會有多長,誰約了誰、又生了誰——通過機器掌握的模型已經在所有這些事情中起作用。關掉我們的所有計算機而不會引起現代文明崩潰的時刻早已過去。機器學習是最後一根稻草,如果可以開始進行自我編程,那麽所有控製它們的希望都肯定會落空。著名科學家如史蒂芬·霍金已經呼籲趁早研究這個問題。


    放輕鬆,備有終極算法的人工智能接管世界的概率是零。原因很簡單:不像人類,計算機本身並沒有自己的意誌。它們是工程師生產的產品,而不是進化體。即使無限強大的計算機,也僅僅是我們意誌的延伸,沒什麽可怕的。回憶一下每種學習算法的三個組成部分:表示方法、評估、優化。學習算法的表示方法限製了它能學習的內容。讓我們把它想象成很強大的學習算法,比如馬爾科夫邏輯,那麽該學習算法原則上可以學習任何東西。接著最優化器會在其權力範圍內,做所有工作來將評估功能最大化——不多也不少——而評估功能“是由我們決定的”。一台更強大的計算機隻會把它優化得更好。掌握的係統如果過去不按照我們想要的來做事,那麽它就會嚴重不適合,因此就會消失。實際上,那些一代接一代、能稍微更好地服務我們的係統會呈現多樣化並接管基因庫。當然,如果我們愚蠢到故意對計算機進行編程,讓其淩駕於我們之上,那麽我們就該被統治。


    同樣的推理也可用於所有人工智能係統,因為它們都(明確或者含蓄地)具備同樣的三個組成部分。它們可以多樣化它們做事的內容,甚至想出驚人的計劃,但僅僅服務於我們設定給它們的目標。如果一個機器人被設定的目標是“做一頓大餐”,它可能會決定煎一份牛排、煮一份法式海鮮濃湯,或者做一道獨創的新菜式,但它無法決定謀殺它的主人,就像汽車無法確定飛走那樣。人工智能係統的目標就是要解決np完全問題(你可能會聯想到第二章),解決這個問題可能需要指數級的時間,但解決方法總可以得到有效驗證。因此我們應該張開懷抱歡迎比我們大腦強大很多的計算機,因為我們的工作要比它們的簡單很多,知道這一點就安心了。它們得解決問題,我們隻要保證它們做的事能讓我們滿意。對於一些東西,我們思考得很慢,但人工智能卻很快,而這個世界對它們來說也將是更好的世界。我(作為人類中的一個)歡迎我們的新型機器人下屬。


    有人擔心智能機器會掌握控製權,這很自然,因為我們知道的唯一智能實體就是人類和其他動物,而它們明確具備自己的意誌。但沒有必要將智能意誌和獨立意誌聯係起來,更確切地說,智能也許並不適應同樣的主體,隻要它們之間存在統治。在《延伸的表現型》一書中,理查德·道金斯表明大自然中充滿了動物基因不僅控製其身體的例子,從布穀鳥的蛋到海狸水壩。技術就是人類的延伸表現型。這意味著我們可以繼續控製它,即使它會變得複雜到讓我們難以理解。


    假設兩條20億年前的dna在它們的“私人泳池”(也稱為細菌的細胞質)中“遊泳”。它們正在思考一項重大決策。“我在擔心,戴安娜,”其中的一條說,“如果我們開始製造多細胞生物,它們會統治世界嗎?”現在快進到21世紀,此時dna仍然活著而且很健康。實際上,比以往更好的是,越來越大比例的dna安全地存在兩足有機體中,組成數以億計的細胞。自從我們的雙鏈“朋友”做出它們的重大決定,這就變得很麻煩了。人類就是它們創造的最難以對付的生物,我們發明出諸如避孕之類的東西來讓自己尋找樂趣,而又不用傳播dna,且我們具備(或者說似乎具備)自由的意誌。但還是dna形成了我們對於樂趣的概念,而我們利用自己的自由意誌來追求快樂和避免痛苦,這很大程度上仍然與對我們dna生存最有利的東西相符。如果我們選擇將自己變成矽,那麽我們也許是dna滅亡的產物,但即使那樣,這也是一段偉大的20億年曆史。當今我們麵對的決定也相似:如果我們開始製造人工智能——龐大的、相互連接的、超人類的、難以理解的人工智能——那麽它們會統治世界嗎?最多就像多細胞有機體取代基因,對於它們來說,我們可能也是龐大的、難以理解的。人工智能是我們的幸存機器,和我們是我們基因的幸存機器同一個道理。


    然而,這並不意味著沒有什麽可以擔心了。最大的憂慮是,和所有技術一樣,人工智能可能會落入不法之徒手裏。如果罪犯或者搞惡作劇的人對人工智能進行編程,用於統治世界,我們最好有人工智能警察局來抓住他們,並消滅他們以防其逍遙法外。為了避免龐大的人工智能變得瘋狂,最佳的保險措施就是有更龐大的人工智能來維護和平。


    第二個憂慮就是人類會自願屈服於統治。它始於機器人的權力,對我但並不是所有人來說有點荒謬。畢竟,我們已經把權力賦予了動物,但動物卻從不要求有權力。在擴張“共鳴圈”中,其下一步就是機器人權力應該算是合情合理。對機器人表示同情並不難,尤其設計它們就是為了喚起同情。即使是日本的“虛擬寵物”,隻有三個按鍵、一個lcd(液晶顯示器)屏幕,也能成功喚起同情。第一個像人的消費者機器人會引發競賽:製造越來越多喚起同情心的機器人,因為它們賣得比一般的金屬機器人要好得多。由機器人奶奶帶大的孩子會終身容易被友好的電子朋友感動。“恐怖穀理論”——對於那些接近人類但又不是人類的機器人,我們會有不適感——對他們來說將會無法理解,因為他們帶著機器人的習性長大,甚至可能會變成酷酷的青少年。


    在隱伏的人工智能統治的進程中,下一步就是讓它們做所有決策,因為它們是如此智能。當心!它們可能會更加智能,但它們服務於任何設計出它們計分函數的人。這就是“綠野仙蹤”問題。在智能機器人的世界中,你的工作就是要確保它們做了你想做的事,無論是在輸入(設定目標)時,還是在輸出(檢查你得到了自己要求得到的東西)時。如果你不這樣做,會有其他人做。機器可以幫助我們弄明白總體來說我們想要什麽,但如果你不參與,就會輸掉——就像民主一樣,隻有參與你才不會輸。和當今我們相信的相反,人類太容易遵守別人的規則,而任何足夠先進的人工智能都無法區別於上帝。人類不會介意聽取來自某台玄妙深奧的計算機的前進命令,問題在於誰來監督監督者。人工智能通往的是更完善的民主,還是更潛伏的專政?永恒的監視才剛剛開始。


    第三個憂慮(可能也是最大的)就是像眾所周知的魔仆一樣,機器會給我們要求的而不是想要的東西。這並不是一種假設性情景分析,學習算法會一直做這件事。我們訓練神經網絡來識別馬匹,但它掌握的卻是褐塊,因為所有的馬匹機器訓練集剛好是褐色的。你隻是買一塊手表,所以亞馬遜推薦了類似的商品——其他手表,此時手表變成你最不想買的東西。如果你檢查計算機今天所做的所有決定,比如誰拿到信用卡,就會發現這些決定常常不必要那麽糟糕。如果你的大腦是一台支持向量機,且你的所有信用評估知識從閱讀一個糟糕的數據庫中得來,你的決定也會變成那樣。人們擔心計算機會變得過於智能而統治世界,但真正的問題是,它們也很愚蠢但已經統治世界。    <h2>進化的第二部分</h2>


    即使當今計算機還不是非常智能,但無疑它們的智力卻在快速提升。早在1965年,i·j·古德英國(一位統計學家以及阿蘭·圖靈在第二次世界大戰中密碼破解項目上的夥伴)就推測到即將到來的“智能爆炸”。古德指出,如果我們可以設計出比自己還要智能的機器,反過來,它們也可以設計出比它們更加智能的機器,就這樣無休止繼續下去,讓人類智能落在後麵。在1993年的一篇文章中,弗諾·文奇將其命名為“奇點”。這個概念經過雷·庫茲韋爾得到最大推廣,他在《奇點臨近》中指出,不僅僅奇點不可避免,而且機器智能超越人類智能的時刻(讓我們稱之為“反觀點”)也將會在未來幾十年到達。


    顯然,如果沒有機器學習——設計程序的程序——奇點將無法發生。我們也會需要足夠強大的硬件,但那會很順利地達到。我們發明出終極算法之後很快就會達到“反觀點”(我願意和庫茲韋爾賭一瓶唐·培裏儂香檳王,覺得這會在我們對大腦進行逆向工程前就會發生,逆向工程是他選擇的用於到達人類水平智能的方法)。


    “奇點”這個術語源於數學,表示此處有一個使函數變成無窮大函數的點。例如,當x為0時,1/x這個函數就會有奇點,因為1除以0的得數是無窮大。在物理學中,奇點的典型例子就是黑洞:密度為無限大的點,此處有限數量的物質被塞入無窮小的空間中。奇點的唯一問題就在於它們並不是真正存在的(你上次給0個人切蛋糕,每個人都會拿到無數塊蛋糕是什麽時候)。在物理學中,如果某個理論預測某物無窮大,那麽這個理論就會出問題。舉個恰當的例子,廣義相對論也許會預測,黑洞有無窮大的密度,因為它忽略了量子效應。同樣,智能無法永遠都在提高。庫茲韋爾承認了這一點,但他指的是技術改進(處理器速度、記憶容量等)中的一係列指數曲線,並提出這種增長的界限是如此遙遠,我們不必糾纏於這些界限。


    庫茲韋爾過擬合了。他準確地批評別人,因為他們總是進行線性推斷——看到直線而不是曲線——但也深受更為奇異的疾病之害:指數隨處可見。在曲線中會有平直部分——什麽也沒發生——他看到還沒有飆升的指數,它們是s形曲線(我們在第四章的好朋友)。s形曲線的開始部分會容易被誤以為是一個指數,但它們會很快偏離。多數庫茲韋爾曲線是摩爾定律的結果,處於快要結束的狀態。庫茲韋爾認為,其他技術會代替半導體,而s形曲線會堆在s形曲線上,每條曲線都比前一條要陡,但這是猜測。他進一步提出,地球上生命的整個曆史,不僅僅是人類技術表現出呈指數加速發展,但產生這種感覺至少部分原因在於視差的影響——離得比較近的東西似乎移動得更快。處於寒武紀爆發時的酷熱中的三葉蟲,因為相信指數加速發展而得到寬恕,不過有一個很大的減速。暴龍雷(tyranno saurus pay)也許會提出一個加速擴大體型。真核細胞(我們)進化的速度要比原核生物(細菌)要慢。進化的過程是時進時退,不可能總是順利加速。


    為了回避這樣一個問題:無限密集的點不存在,庫茲韋爾提出將奇點與黑洞的視界等同起來,黑洞視界的重力如此強大,光線也無法逃脫。同樣,他說,奇點就是這樣一個點,在這個點之外技術演化進行得如此快速,人們都無法預測或者了解將要發生什麽。如果那就是奇點,那麽我們已經在它裏麵。我們無法提前預測一種學習算法會想出什麽主意,甚至我們在回顧過去時常常無法理解它。實際上,我們一直生活在這樣一個隻能理解某些部分的世界中。主要的差別在於,我們的世界現在部分創造了我們,這肯定是改善之處。“反觀點”之外的世界對我們來說會不可思議,就像更新世一樣。我們將會把注意力集中在自己能理解的事物上,正如我們一直做的,並將剩下的稱為“隨機的”(或者“神聖的”)。


    我們所處的軌道不是奇點,而是相變。它的臨界點——反觀點——當機器學習趕上自然多樣化時,反觀點就會到來。自然學習法本身已經經曆了三個階段:進化、大腦、文化。每個階段都是前一個階段的產物,而且每個階段都會學得更快。機器學習邏輯上是該進程的下一階段。計算機程序是世界上最快速的複製者:複製它們隻需要不到一秒,但創造它們卻比較緩慢(如果這件事由人類完成)。機器學習克服了瓶頸期,留下最後一個:人類可接受改變的速度。這個到最後也會被克服,但並不是因為我們決定將東西移交給我們的“智能後代”,正如漢斯·莫拉維克所稱呼的那樣,然後溫柔地走進美好的夜晚。人類並不是生命之樹上垂死的枝丫,相反,我們開始出現分支。


    文化和更大的大腦共同進化,與此類似,我們會與自己的創造物一起進展。我們一直具備——如果我們沒有發明火或者長矛,那麽人類從外表上看會有差別。我們是“技術人”,和智人差不多。但在第九章中我設想的那種細胞模型也會考慮全新的東西——在你所提供參數的基礎上設計細胞的計算機,以及以同樣方式在功能規格的基礎上設計微芯片的矽編譯器。對應的dna可以合成並插入一個“通用”細胞,將其轉化成想要的那個。克雷格·文特爾是基因組的先鋒,已經在這個方向邁出第一步。首先,我們會利用這股力量來抗擊疾病:新的病原體已經確定,治療方法立刻就被發現,你的免疫係統從網上將它下載下來。健康問題變成矛盾修飾法。然後dna設計會讓人們最後擁有他們想要的身體,迎來買得起的美麗時代,威廉·吉布森說了上述讓人記憶深刻的話。然後接著“技術人”會進化成無數不同的智能物種,每種物種都有其生態位,這是一個全新的與當今不一樣的生物圈,正如當今的生物圈與原始海洋存在差異一樣。


    許多人擔心以人為導向的進化會永久性地將人類分為基因擁有者的一個類別,以及基因缺失者的一個類別。這次想象的異常失敗打擊了我。自然進化最後不會隻有兩種物種,一種物種順從另一種物種。這就意味著下一個瓶頸就是界限,雖然現在我們還沒看到它。其他過渡期會到來,有些長,有些短,有些快,有些不會持續很長,但在地球的生命曆程中,接下來的幾千年很有可能是最為令人驚歎的一段曆程。


    [5] 《日內瓦公約》是1864—1949年在瑞士日內瓦締結的關於保護平民和戰爭受難者的一係列國際公約的總稱,含四個公約。這裏提到的《日內瓦第五公約》是作者對未來的一種設想。——編者注

章節目錄

閱讀記錄

終極算法:機器學習和人工智能如何重塑世界所有內容均來自互聯網,鉛筆小說網隻為原作者佩德羅·多明戈斯的小說進行宣傳。歡迎各位書友支持佩德羅·多明戈斯並收藏終極算法:機器學習和人工智能如何重塑世界最新章節