如果說一知半解很危險,那麽到哪裏去尋找知識豐富到足以擺脫危險的人物呢?


    ——托馬斯·亨利


    接下來我們將討論用於解決這些嚴重危機的步驟,但是我們不能保證今天設計的策略完全有效。這些風險即尼克·波斯特拉姆所謂的“生存危機”,他將此定義為表8-1右上角的危險深度。<small>18</small>


    氫彈的出現和隨後在冷戰中建造的熱核武器使地球上的生物在20世紀中期第一次遭遇人為製造的生存危險。據報道,肯尼迪總統曾估計,古巴導彈危機中全麵爆發核戰爭的可能性在33%~50%<small>19</small>。作為空軍戰略導彈評審委員會主席和核戰略政府顧問的傳奇人物,信息理論家約翰·馮·諾伊曼估計,大規模核戰爭的可能性(前古巴導彈危機之前)接近100%<small>20</small>。以20世紀60年代的觀點來看,是什麽使那時的觀察者預測到在接下來的40年內世界不會爆發另一次非實驗性的核爆炸?


    盡管國際事務非常混亂,但是我們還是應該感謝戰爭中沒有使用核武器。但是我們顯然不能輕易放鬆,因為現存的氫彈數量仍然足以毀滅人類很多次。<small>21</small>


    雖然不足以威脅文明的存在,但是我們仍然密切關注著核擴散和核材料及核技術的廣泛傳播(也就是說,隻有使用洲際彈道導彈的全麵核戰爭的爆發,才會給人類的生存帶來威脅)。核擴散和核恐怖主義屬於“嚴重、本地”風險類別,即種族滅絕。不過我們仍然嚴正關注,因為雙方均能摧毀對方的邏輯不適用於自殺式恐怖主義者身上。


    如今我們可能麵臨另一種生存危機,生物工程可能製造出一種易傳播、潛伏期長且致命的病毒。有些病毒很容易傳染,如普通的和流行性感冒病毒。有些病毒是致命的,如艾滋病病毒。但很少有病毒同時具備這兩種特性。現在的人類是已經對大多數流行病毒免疫的人類的後代。一個物種能從病毒爆發中生存下來,得益於有性繁殖,它保證了人類的基因多樣性,所以人們對特定病毒的反應千差萬別。所以,盡管是災難性的,腺鼠疫並沒有殺死所有歐洲人。其他病毒如天花等具有雙麵特性——很容易傳染和致命——但是它們存在了很長的時間,人類已經研製出了對抗它們的疫苗。但是基因工程可能繞過進化保護突然產生一種新的病毒,而對這種病毒我們沒有任何自然或技術上的保護措施。


    將致命毒素的基因注入諸如普通感冒或流行感冒等容易傳播的普通病毒中,這會帶來另一個生存危機。正因如此,阿西羅馬會議商議如何應對這種威脅,並且起草了一係列安全和道德準則。這些準則沿用至今,但遺傳操作基本技術的複雜性正在迅速增加。


    2003年,世界成功擊敗了sars病毒。sars病毒是由一種古老病毒(該病毒可能是人類與珍奇動物(可能是果子狸)的親密接觸中傳播到人體的)和一種現代病毒(通過空氣迅速傳播到全世界)相結合而產生的。sars病毒具有易傳播、離開人體後能長時間生存、能夠造成14%~20%的高死亡率等特性,它給我們提供了一次人類對抗新病毒的演練。這又是一次古代和現代技術相結合的反應。


    sars的經曆表明大多數病毒,即使相對容易傳播並具有高致命性,看起來很嚇人,但不一定帶來生存危機。然而,sars病毒並不是被設計出來的。sars容易通過體液傳播但不易通過氣體微粒傳播。它的潛伏期從一天到兩周不等,較長的潛伏期會使病毒在攜帶者被確認前就通過快速繁殖而得到廣泛傳播了。<small>22</small>


    sars是致命的,但是絕大多數感染者都幸存了下來。惡意製造病毒變得越來越可能,而製造出的病毒比sars更易傳播、具有更長的潛伏期並且對幾乎所有感染者都是致命的。天花幾乎具有所有這些特點。盡管我們有疫苗(雖然很原始),但並不能有效防止天花的變異。


    正如我下麵所說,21世紀20年代,當我們完全掌握基於納米機器人<small>23</small>的反病毒技術後,生物工程病毒(無論存在與否)的作惡之窗將最終關閉。然而,因為納米技術比生物體強大、快速、智能上千倍,能自我複製的納米機器人將帶來更大的風險和生存危機。惡意的納米機器人將最終被強大的人工智能終結,但毫無疑問,“不友好的”人工智能將會帶來更大的生存危機,我會在後麵的內容中討論。


    預防原則。正如波斯特接姆、弗雷塔斯以及包括我在內的觀察員指出,我們不能用試錯法來處理生存危機。對預防原則的解釋還存在爭議(如果一個行為的後果未知,但是據科學家判斷有極小可能會帶來巨大的負麵風險,這一行為最好不要進行)。但很明顯,在我們的戰略中需要盡可能提高自信以對抗這種風險。這就是越來越多的聲音要求我們停止技術發展的原因之一,這也是在新的生存危機發生之前將其消除的主要戰略。然而放棄並非合適的行為,隻會阻止新興技術帶來的好處,而且實際上還增加了災難性結果的可能性。麥克斯·摩爾闡明了預防原則的局限性,並且主張用他的所謂“行動原則”來取代預防原則,以平衡“行動”與“不行動”間的風險。 <small>24</small>


    在討論如何應對新的生存危機挑戰之前,有必要來回顧一下波斯特拉姆和其他人提出的假設。


    相互作用越小,爆發的可能性越大。近來正在爭論用未來的高能粒子加速器會不會造成亞原子級的能量狀態轉換的連鎖反應,其結果可能是破壞麵積呈指數級擴散,分裂銀河係內的所有原子。已經提及很多這種情形,包括可能製造出一個吞食掉整個太陽係的黑洞。


    對這些情形的分析,表明其發生的可能性極低,盡管也有物理學家對此並不樂觀。<small>25</small>這些分析在數學上看起來似乎合理,但是我們對這個公式描述的物理意義層麵沒有達成共識。如果這些危險聽起來太不著邊際,那試想一下這種可能,我們的確在物質衰減中檢測到了日益劇烈的爆炸現象。


    阿爾弗雷德·諾貝爾探測到分子的化學反應而發明了炸藥。原子彈的威力是炸藥威力的數萬倍,它基於大型原子的核反應,這些原子比大分子小很多。氫彈基於更小的原子的相互作用,威力比原子彈大上千倍。雖然這種認識並不一定意味著通過利用亞原子粒子還可能製造出威力更強大的毀滅性連鎖反應,但是它證明了這種猜想是有道理的。


    我對這種危險的評價是:我們不可能隻是簡單地偶然發現了這種破壞性事件,就如原子彈的產生不可能是偶然的一樣。這種設備需要精確地配置材料和動作,而且原料也需要通過大型且精密的工程來開發。無意中製造出氫彈的說法則更不可信,因為想要製造出氫彈,必須將原子彈、氫核及其他物質進行特定精確的安排。而在亞原子級偶然製造出新的毀滅性連鎖反應更加不可能。其後果將十分嚴重,然而預防原則會引導我們認真對待這些危險的可能性。在進行新的加速器實驗之前應該仔細分析。但是這種風險並非是我所列的21世紀風險名單中處於最高級的。


    我們的虛擬世界已經關閉。波斯特拉姆等人曾指出另一個已被證實的已經存在的危機:我們實際上生活在一個虛擬世界中,而這個虛擬世界將被關閉。似乎我們對此無能為力。但是,既然我們成為這個虛擬世界中的元素,那麽我們就有機會影響其中發生的一切。避免被關掉的最好方法就是引起虛擬世界監視者的興趣。假設某人正注視著這個虛擬世界,完全可以推測,如果它更能激發此人的興趣,那麽這個虛擬世界被關閉的可能性會大大降低。


    我們應該花大量時間思索讓一個虛擬世界變得有趣意味著什麽。而新知識的創造是這個評估中最重要的部分。雖然我們很難猜測什麽才能使我們假想的監測者感興趣,而奇點似乎和我們想象中的任何新進展一樣令人興奮,能以一個令人吃驚的速度創造新知識。事實上,實現知識爆炸的奇點可能正是虛擬世界的目標。因此,確保一個“建設性的”奇點(避免像被灰霧毀滅或被邪惡的人工智能統治等這樣的悲慘結果)是避免虛擬世界被關閉的最好方法。當然,我們還有很多其他理由作為實現一個建設性的奇點的動機。


    如果我們生活在一個計算機的虛擬世界中,這是一個很好的情景:如此詳盡以至於我們也可以接受它是我們的現實。不管怎樣,這是我們唯一可以接觸到的現實。


    我們的世界似乎有著悠久的曆史。這意味著我們的世界要麽不是虛擬的(確實也不是),要麽是虛擬的(這個虛擬世界已經運行了很長時間,並且也不會很快停止)。當然,也有可能這個虛擬世界並不像它所展示的那樣具有悠久的曆史。


    正如我在第6章所提到的,有人推測一個先進的文明可能會創建一個新的宇宙進行計算(或換一種方式繼續膨脹它自己的計算)。我們在這個宇宙的生活(被另一種文明所創建的)可以被認為是模擬場景。也許其他文明正在我們的宇宙中運行一種進化算法(我們正在見證的進化)來創建一種來自於奇點科技的知識爆炸。如果這是真實的,那麽當知識奇點發生錯誤或不像預期那樣發展的時候,正在注視著我們的“文明”可能關閉我們的虛擬世界。


    這種場景並不在我所擔心的清單中。因為這是我們可以避免負麵結果而遵循的唯一策略,這也是我們無論如何必須遵循的。


    組織的崩潰。另一個經常被引用的憂慮是一個大型的行星或彗星撞擊,在地球曆史上這種情形多次發生,它們代表了那些時代物種生存的結局。當然,這不是危險的技術造成的。相反,技術將保護我們避免這個風險(當然是在一至幾十年中)。雖然小的影響會經常發生,然而大的、來自太空的有破壞性的風險卻很罕見。我們無法預期它到來的時間,幾乎可以肯定的是,這種危險來臨之時,我們的文明將很容易在入侵者摧毀我們之前便能摧毀他們。


    危險列表中的另一項是被外星智能(不是我們已經創建的)破壞。我在第6章討論過這種可能性,我認為這也是不可能的。


    gnr:希望與危險的合理聚焦。gnr是最令人擔憂的技術。不過,我們需要認真對待錯誤的、日益尖銳的路德的聲音,他們倡導放棄科技進步來避免gnr帶來的危險。原因我將在後麵的內容中討論,放棄不是解決問題的方法,理性的恐懼可能導致非理性的解決辦法。在克服人類苦難時,拖延會產生嚴重後果。


    隻有集權製度才能貫徹廣泛放棄的實施,但由於日益強大的分布式電子和光子通信的民主化衝擊,對抗新世界的一個極權主義是不可能產生的。在世界範圍內,互聯網和手機等分布式通信的蓬勃發展,代表了一個遍布各地的民主力量。這不是推翻原有政權的政變,而是由傳真機、複印機、錄像機以及個人計算機組成的秘密網絡打破了幾十年來極權主義者對信息的控製。<small>26</small>20世紀90年代的特點是民主、資本主義的運動以及隨之而來的經濟增長,而這些都得益於人與人之間通信技術的加速發展。


    有一些問題不是生存危機但仍然很嚴重,包括“誰來控製納米機器人?”和“誰與納米機器人交談?”未來的組織(無論是政府或極端組織)或隻是一個聰明的人可以把數以億萬計的隱形的納米機器人放在一個人或所有人的水或食物裏。那麽這些間諜機器人就可以監測、影響甚至控製人們的思想和行動。另外,現有的納米機器人會受到軟件病毒和黑客技術的影響。當軟件在我們的身體和大腦中運行(我們討論過的,一些人已經可以這樣做),隱私和安全問題將迅速湧現出來,我們需要設計出對抗這種入侵的反監視方法。


    轉變未來的必然性。不同的gnr技術在許多方麵取得了進步。gnr得以完全實現源於一次次良性的進步。對g來說,我們已經掌握了設計病原體的方法。生物技術將得益於倫理和經濟的諸多好處而持續加快發展,這些好處源於人們對構建生物體的信息處理過程的掌握。


    納米技術是各種技術持續微型化的必然結果。包括電子、機械、能源、醫學在內的廣泛應用的重要特征是其以每10年4%的速率線性地縮小。此外,尋求理解納米技術及其應用的研究也在呈指數方式增長。


    同樣,我們在人腦逆向工程所做的努力也是被各種預期的益處所驅動的,包括理解和扭轉已認知的疾病和衰老。監視大腦的工具在時空決策方麵呈指數方式增長,而且我們已經證明了,這些工具有能力將大腦掃描和研究獲取的數據轉化成工作模型並進行仿真。


    大腦逆向工程中的努力蘊含了這樣的道理:發展人工智能算法的整個研究以及計算平台持續的指數增長,使得更強大的人工智能(和人類一樣甚至超越人類的人工智能)的產生成為必然。一旦人工智能達到人類的水平,它一定會很快超越人類水平,因為它會把人類智能的力量和非生物展現出來的智能(包括速度、內存容量、知識共享)結合在一起。這不同於生物智能,非生物智能也將從規模、能力、性價比的指數級的持續增長中受益。


    極權放棄。要想終止各方麵加速進步的步伐,我們唯一能想到的方法就是一個放棄進步的全球極權製度。但是這不能避免gnr帶來的危害,因為它會導致地下活動,而這樣會帶來更具有毀滅性的應用。因為我們所依賴、能夠快速開發出防禦技術的人將很難獲得必要的研發工具。幸運的是,極權主義是不太可能出現的,因為知識的日益分布是一種內在的民主化力量。

章節目錄

閱讀記錄

奇點臨近所有內容均來自互聯網,鉛筆小說網隻為原作者Ray Kurzweil的小說進行宣傳。歡迎各位書友支持Ray Kurzweil並收藏奇點臨近最新章節