隨著人工智能技術的快速發展和廣泛應用,智能時代的大幕正在拉開,無處不在的數據和算法正在催生一種新型的人工智能驅動的經濟和社會形式。人工智能能夠成為一股“向善”的力量,持續造福於人類和人類社會,但也帶來了隱私保護、虛假信息、算法歧視、網絡安全等倫理與社會影響,引發了對新技術如何帶來個人和社會福祉最大化的廣泛討論。人工智能倫理開始從幕後走到前台,成為糾偏和矯正科技行業狹隘的技術向度和利益局限的重要保障。正如有學者所言,要讓倫理成為人工智能研究與發展的根本組成部分。
在此背景下,從政府到行業再到學術界,全球掀起了一股探索製定人工智能倫理原則的熱潮。例如,oecd和g20已采納了首個由各國政府簽署的人工智能原則,成為人工智能治理的首個政府間國際共識,確立了以人為本的發展理念和敏捷靈活的治理方式。我國新一代人工智能治理原則也緊跟著發布,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八項原則,以發展負責任的人工智能。可見,各界已經基本達成共識,以人工智能為代表的新一輪技術發展應用離不開倫理原則提供的價值引導。
因此,我們認為需要構建以信任、幸福、可持續為價值基礎的人工智能倫理,以便幫助重塑數字社會的信任,實現技術、人、社會三者之間的良性互動和發展,塑造健康包容可持續的智慧社會。
構建讓人信任的人工智能規則體係
雖然技術自身沒有道德、倫理的品質,但是開發、使用技術的人會賦予其倫理價值,因為基於數據做決策的軟件是人設計的,他們設計模型、選擇數據並賦予數據意義,從而影響人們的行為。所以,這些代碼並非價值中立,其中包括了太多關於人類的現在和未來的決定。所以,技術無關價值的論斷並不正確。現在人們無法完全信任人工智能,一方麵是因為人們缺乏足夠信息,對這些與我們的生活和生產息息相關的技術發展缺少足夠的了解;另一方麵是因為人們缺乏預見能力,既無法預料企業會拿自己的數據做什麽,也無法預測人工智能係統的行為。
因此,需要構建能夠讓人們信任的人工智能規則體係,讓技術接受價值引導。作為建立技術信任的起點,人工智能發展與應用需要遵循四個方麵的理念,給人工智能發展提供必要的價值引導。
一是可用。發展人工智能的首要目的,是促進人類發展,給人類和人類社會帶來福祉,實現包容、普惠和可持續發展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現技術鴻溝。可用性還意味著以人為本的發展理念、人機共生、包容性以及公平無歧視。要求踐行“經由設計的倫理”理念,將倫理價值融入到人工智能產品、服務的設計當中。
二是可靠。人工智能應當是安全可靠的,能夠防範網絡攻擊等惡意幹擾和其他意外後果,實現安全、穩定與可靠。一方麵人工智能係統應當經過嚴格的測試和驗證,確保其性能達到合理預期;另一方麵人工智能應確保數字網絡安全、人身財產安全以及社會安全。
三是可知。人工智能應當是透明的,是人可以理解的,避免技術“黑盒”影響人們對人工智能的信任。目前,學界和業界已在致力於解決人工智能“黑盒”問題,實現可理解的人工智能算法模型。此外,算法透明不是對算法的每一個步驟、算法的技術原理和實現細節進行解釋,簡單公開算法係統的源代碼也不能提供有效的透明度,反倒可能威脅數據隱私或影響技術安全應用。相反,在人工智能係統的行為和決策上實現有效透明將更可取,也能提供顯著的效益,例如在適當的時候對人工智能係統的決策和行為提供說明,而不是一味追求技術透明。最後,在發展和應用人工智能的過程中,應為社會公眾參與創造機會,並支持個人權利的行使包括隱私、表達自由、救濟等。
四是可控。人工智能的發展應置於人類的有效控製之下,避免危害人類個人或整體的利益。短期來看,發展和應用人工智能應確保其帶來的社會福祉顯著超過其可能給個人和社會帶來的可預期的風險和負麵影響,確保這些風險和負麵影響是可控的,並在風險發生之後積極采取措施緩解、消除風險及其影響。長期來看,雖然人們現在還無法預料通用人工智能和超級人工智能能否實現以及如何實現,也無法完全預料其影響,但應遵循預警原則,防範未來的風險,使未來可能出現的通用人工智能和超級人工智能能夠服務於全人類的利益。
當然,信任的建立,需要一套規則體係。在這些原則之下,人們可以探索製定標準、法律、國際公約等。需要采取包容審慎、敏捷靈活的治理方式,可以采取事後監管或者通過出台標準、行業公約、倫理框架、最佳實踐、技術指南等調整人工智能等新技術的發展應用,支持行業自律。
確保人人都能追求數字福祉
其一,保障個人的數字福祉,人人都有追求數字福祉的權利。一方麵需要消除技術鴻溝和數字鴻溝,全球還有接近一半人口沒有接入互聯網,老年人、殘疾人等弱勢群體未能充分享受到數字技術帶來的便利。另一方麵減小、防止數字技術對個人的負麵影響,網絡過度使用、信息繭房、算法偏見、假新聞等現象暴露出了數字產品對個人健康、思維、認知、生活和工作等方麵的負麵影響,呼籲互聯網經濟從吸引乃至攫取用戶注意力向維護、促進用戶數字福祉轉變,要求科技公司將對用戶數字福祉的促進和保障融入到數字產品及服務的設計中。
其二,保障個人的工作和自由發展,人人都有追求幸福工作的權利。雖然有人聲稱人工智能將導致大規模失業和無用階層的出現,但目前而言,人工智能的經濟影響依然相對有限,不可能很快造成大規模失業,也不可能終結人類工作,因為技術采納和滲透往往需要數年甚至數十年,需要對生產流程、組織設計、商業模式、供應鏈、法律製度、文化期待等各方麵做出調整和改變。但工作的內容、性質、方式和需求等可能發生很大變化,需要人們掌握新的知識和技能。預測顯示,未來20年內,90%以上的工作或多或少都需要數字技能。而且人工智能、機器人等新技術正在從ict領域向實體經濟、服務業、農業等諸多經濟部門擴散、滲透,uu看書 ww.uukanshu未來中國將成為機器人大國,這些變化將在很大程度上影響當前的就業和經濟結構。現在需要做的就是為當下和未來的勞動者提供適當的技能教育,為過渡期勞動者提供再培訓、再教育的公平機會,支持早期教育和終身學習。
塑造健康包容可持續的智慧社會
技術創新是推動人類和人類社會發展的最主要因素。在21世紀的今天,人類所擁有的技術能力,以及這些技術所具有的“向善”潛力,是曆史上任何時候都無法比擬的。換言之,人工智能等新技術本身是“向善”的工具,可以成為一股“向善”的力量,用於解決人類發展麵臨著的各種挑戰。與此同時,人類所麵臨的挑戰也是曆史上任何時候都無法比擬的。聯合國製定的《2030可持續發展議程》確立了17項可持續發展目標,實現這些目標需要解決相應的問題和挑戰,包括來自生態環境的、來自人類健康的、來自社會治理的、來自經濟發展的等等。
將新技術應用於這些方麵,是正確的、“向善”的方向。例如,人工智能與醫療、教育、金融、政務民生、交通、城市治理、農業、能源、環保等領域的結合,可以更好地改善人類生活,塑造健康包容可持續的智慧社會。因此,企業不能隻顧財務表現、隻追求經濟利益,還必須肩負社會責任,追求社會效益,服務於好的社會目的和社會福祉,給社會帶來積極貢獻,實現利益與價值的統一。包括有意識有目的地設計、研發、應用技術來解決社會挑戰。(司曉)
在此背景下,從政府到行業再到學術界,全球掀起了一股探索製定人工智能倫理原則的熱潮。例如,oecd和g20已采納了首個由各國政府簽署的人工智能原則,成為人工智能治理的首個政府間國際共識,確立了以人為本的發展理念和敏捷靈活的治理方式。我國新一代人工智能治理原則也緊跟著發布,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八項原則,以發展負責任的人工智能。可見,各界已經基本達成共識,以人工智能為代表的新一輪技術發展應用離不開倫理原則提供的價值引導。
因此,我們認為需要構建以信任、幸福、可持續為價值基礎的人工智能倫理,以便幫助重塑數字社會的信任,實現技術、人、社會三者之間的良性互動和發展,塑造健康包容可持續的智慧社會。
構建讓人信任的人工智能規則體係
雖然技術自身沒有道德、倫理的品質,但是開發、使用技術的人會賦予其倫理價值,因為基於數據做決策的軟件是人設計的,他們設計模型、選擇數據並賦予數據意義,從而影響人們的行為。所以,這些代碼並非價值中立,其中包括了太多關於人類的現在和未來的決定。所以,技術無關價值的論斷並不正確。現在人們無法完全信任人工智能,一方麵是因為人們缺乏足夠信息,對這些與我們的生活和生產息息相關的技術發展缺少足夠的了解;另一方麵是因為人們缺乏預見能力,既無法預料企業會拿自己的數據做什麽,也無法預測人工智能係統的行為。
因此,需要構建能夠讓人們信任的人工智能規則體係,讓技術接受價值引導。作為建立技術信任的起點,人工智能發展與應用需要遵循四個方麵的理念,給人工智能發展提供必要的價值引導。
一是可用。發展人工智能的首要目的,是促進人類發展,給人類和人類社會帶來福祉,實現包容、普惠和可持續發展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現技術鴻溝。可用性還意味著以人為本的發展理念、人機共生、包容性以及公平無歧視。要求踐行“經由設計的倫理”理念,將倫理價值融入到人工智能產品、服務的設計當中。
二是可靠。人工智能應當是安全可靠的,能夠防範網絡攻擊等惡意幹擾和其他意外後果,實現安全、穩定與可靠。一方麵人工智能係統應當經過嚴格的測試和驗證,確保其性能達到合理預期;另一方麵人工智能應確保數字網絡安全、人身財產安全以及社會安全。
三是可知。人工智能應當是透明的,是人可以理解的,避免技術“黑盒”影響人們對人工智能的信任。目前,學界和業界已在致力於解決人工智能“黑盒”問題,實現可理解的人工智能算法模型。此外,算法透明不是對算法的每一個步驟、算法的技術原理和實現細節進行解釋,簡單公開算法係統的源代碼也不能提供有效的透明度,反倒可能威脅數據隱私或影響技術安全應用。相反,在人工智能係統的行為和決策上實現有效透明將更可取,也能提供顯著的效益,例如在適當的時候對人工智能係統的決策和行為提供說明,而不是一味追求技術透明。最後,在發展和應用人工智能的過程中,應為社會公眾參與創造機會,並支持個人權利的行使包括隱私、表達自由、救濟等。
四是可控。人工智能的發展應置於人類的有效控製之下,避免危害人類個人或整體的利益。短期來看,發展和應用人工智能應確保其帶來的社會福祉顯著超過其可能給個人和社會帶來的可預期的風險和負麵影響,確保這些風險和負麵影響是可控的,並在風險發生之後積極采取措施緩解、消除風險及其影響。長期來看,雖然人們現在還無法預料通用人工智能和超級人工智能能否實現以及如何實現,也無法完全預料其影響,但應遵循預警原則,防範未來的風險,使未來可能出現的通用人工智能和超級人工智能能夠服務於全人類的利益。
當然,信任的建立,需要一套規則體係。在這些原則之下,人們可以探索製定標準、法律、國際公約等。需要采取包容審慎、敏捷靈活的治理方式,可以采取事後監管或者通過出台標準、行業公約、倫理框架、最佳實踐、技術指南等調整人工智能等新技術的發展應用,支持行業自律。
確保人人都能追求數字福祉
其一,保障個人的數字福祉,人人都有追求數字福祉的權利。一方麵需要消除技術鴻溝和數字鴻溝,全球還有接近一半人口沒有接入互聯網,老年人、殘疾人等弱勢群體未能充分享受到數字技術帶來的便利。另一方麵減小、防止數字技術對個人的負麵影響,網絡過度使用、信息繭房、算法偏見、假新聞等現象暴露出了數字產品對個人健康、思維、認知、生活和工作等方麵的負麵影響,呼籲互聯網經濟從吸引乃至攫取用戶注意力向維護、促進用戶數字福祉轉變,要求科技公司將對用戶數字福祉的促進和保障融入到數字產品及服務的設計中。
其二,保障個人的工作和自由發展,人人都有追求幸福工作的權利。雖然有人聲稱人工智能將導致大規模失業和無用階層的出現,但目前而言,人工智能的經濟影響依然相對有限,不可能很快造成大規模失業,也不可能終結人類工作,因為技術采納和滲透往往需要數年甚至數十年,需要對生產流程、組織設計、商業模式、供應鏈、法律製度、文化期待等各方麵做出調整和改變。但工作的內容、性質、方式和需求等可能發生很大變化,需要人們掌握新的知識和技能。預測顯示,未來20年內,90%以上的工作或多或少都需要數字技能。而且人工智能、機器人等新技術正在從ict領域向實體經濟、服務業、農業等諸多經濟部門擴散、滲透,uu看書 ww.uukanshu未來中國將成為機器人大國,這些變化將在很大程度上影響當前的就業和經濟結構。現在需要做的就是為當下和未來的勞動者提供適當的技能教育,為過渡期勞動者提供再培訓、再教育的公平機會,支持早期教育和終身學習。
塑造健康包容可持續的智慧社會
技術創新是推動人類和人類社會發展的最主要因素。在21世紀的今天,人類所擁有的技術能力,以及這些技術所具有的“向善”潛力,是曆史上任何時候都無法比擬的。換言之,人工智能等新技術本身是“向善”的工具,可以成為一股“向善”的力量,用於解決人類發展麵臨著的各種挑戰。與此同時,人類所麵臨的挑戰也是曆史上任何時候都無法比擬的。聯合國製定的《2030可持續發展議程》確立了17項可持續發展目標,實現這些目標需要解決相應的問題和挑戰,包括來自生態環境的、來自人類健康的、來自社會治理的、來自經濟發展的等等。
將新技術應用於這些方麵,是正確的、“向善”的方向。例如,人工智能與醫療、教育、金融、政務民生、交通、城市治理、農業、能源、環保等領域的結合,可以更好地改善人類生活,塑造健康包容可持續的智慧社會。因此,企業不能隻顧財務表現、隻追求經濟利益,還必須肩負社會責任,追求社會效益,服務於好的社會目的和社會福祉,給社會帶來積極貢獻,實現利益與價值的統一。包括有意識有目的地設計、研發、應用技術來解決社會挑戰。(司曉)