<tbody id="or7ce"></tbody>
    <dd id="or7ce"></dd>
    <li id="or7ce"><acronym id="or7ce"></acronym></li>
      • banner1-1.png
      • banner1-4.png
      • banner1-5.png
    1. 1.jpg
    2. 黨建網 > 理論強黨
      構建“以人為本”的人工智能治理體系
      發表時間:2024-03-25 來源:學習時報

      傅宏宇

       

        近年來我國人工智能技術快速發展,技術自主性也不斷提高。高度普及的移動網絡終端催生了萬物互聯的數據技術,算力和存儲從用戶端向云端轉移降低了步入數字生活的門檻,深刻改變了人的生產生活方式。目前人工智能已經普遍應用于社會生活的各個方面,從出行路徑規劃、網絡購物選擇到知識內容獲取、信貸申請審批,人工智能也在改變人類慣常的決策方式,但在提高效率的同時也帶來了系統性的問題,比如人工智能技術不夠安全、穩定,影響了系統的可靠性;人工智能決策目標單一,難以滿足多元的社會需求;人工智能使用的數據和模型復雜不透明,結果難以解釋等。

        揭開人工智能的面紗,不斷解決其發展應用中的諸多挑戰和問題,是人類社會的共識。我國近年來不斷加強對人工智能治理的要求,結合我國實際情況出臺了《新一代人工智能倫理規范》《關于加強科技倫理治理的意見》《互聯網信息服務算法推薦管理規定》等一系列政策規范,確立了我國人工智能倫理治理的核心目標和基本原則,創設并完善了人工智能影響評估、備案、分級分類等治理管理工具,引導科技企業評估人工智能技術研發應用風險,健全全生命周期倫理治理體系,為社會提供更為安全、更負責任的人工智能產品服務。

        幫助提高人的勞動效率,增加勞動價值。人工智能技術本身處在快速發展的過程之中,從專家系統到深度學習、從有監督學習到無監督的自主學習,機器在不斷模擬人類智能的過程中智能化水平不斷提高,對人的勞動方式和價值實現產生了影響。一方面,人工智能創造了新的生產生活方式,促進了職業模式的創新,新業態的產生帶來了新的就業機會。比如,通過人工智能技術對分散的勞動資源進行線上化整合和實時性調度,催生了網約車司機、外賣配送員等新職業,通過連接消費者、商戶建設起共享性的零工經濟,但新的勞動生產方式也帶來了勞動保障不足、勞動權益被忽視等問題。另一方面,人工智能降低了知識獲取和利用的門檻,對部分傳統勞動產生擠出效應和替代效果,例如自然語言學習算法的不斷優化讓人工智能系統的語音轉譯、外語翻譯能力有了顯著提升,目前線上會議軟件已經實現了實時記錄和翻譯功能,提高了對會議內容的記錄效率,但也一定程度上降低了對速記、翻譯等人員的需求??傮w來看,人工智能技術目前在創造性、感知性等方面和人類智能還有較大的差距,完全替代人類的強人工智能尚不具備可能。但人工智能技術會持續影響人類的知識學習和生產工作方式。一是人工智能技術的發展可能將替代部分重復性高、規律性強的人類勞動;二是創造新的、非傳統的工作形態,影響現有的勞動價值分配方式和勞動保障制度;三是可能擴大技術賦能與技術失能兩大群體間的差距。人工智能治理需要關注其對人的勞動的替代以及對勞動價值的影響,讓技術方案更便捷、友好、易用,幫助更多的人提高勞動效率;同時,進一步完善針對新就業形態的勞動保障,讓人工智能驅動的勞動者享受到更為充分全面的勞動權益保障。

        尊重人的權益,做到有克制、不傷害。隨著人工智能的廣泛應用,人工智能下的公共決策更加精準,人們生活更為便捷,社會效率也得到提升,但技術滲入社會生活也改變了人們的溝通交流方式,產生了一系列新問題、新挑戰。一是個人隱私受到威脅。和物理空間一樣,數字社會中人們的隱私也受到保護,但人工智能技術需要大量的數據進行模型訓練,不加約束地收集和利用數據侵入了人們在數字社會中的隱私空間,對數字身份帶來了安全風險。二是公平公正難以保障。當人工智能被用于調配生產生活資料、分配社會資源的時候,人們期待其能夠做出公平、不帶偏見的決定。然而受制于有限的數據分布和數據質量,以及在模型設計和部署實施中的人為錯誤,人工智能存在難以避免的偏差,而當被用于決定資源分配的時候,技術的偏差就可能造成結果的不公平。三是信任機制存在缺失。人工智能系統的設計、部署和應用比較復雜,機器學習更增加了技術的不透明性,給人們留下了“黑箱”的印象,普通用戶很難理解人工智能系統如何做出決策,當決策影響到其權益的時候,也很難要求說明、提出申辯、獲得救濟,往往是被動接受而不是主動選擇人工智能的決策結果。

        人工智能治理需要重點關注人工智能對隱私、公平的侵犯,提高人工智能技術的透明度,讓包括數據使用、模型設計、影響評估等在內的人工智能決策過程更清晰、可解釋,為人們提供溝通反饋的渠道、并對產生的負面效果提供及時充分有效的救濟,變人工智能“黑箱”為好用、受信任的“工具箱”。

        促進社會包容可持續發展。當人工智能成為人類社會生產生活的基本工具,除了考慮此項技術當前的問題,還需面向未來,探討其在中長期對人的生存和發展帶來的影響。在環境保護方面,人工智能技術可以讓能源的生產和使用符合可持續發展目標要求,比如通過控制物聯網設備實現實時的能源消耗調節,幫助創建更為智慧和低碳的城市;通過智能電網整合可再生能源,實現更為穩定的替代電能供應;利用圖像識別技術實時監控分析衛星圖,確定荒漠化和海洋污染情況,并提出針對性的方案。但同時,人工智能技術的發展也推高了能源消耗,比如適用于自然語言處理的預訓練大模型,在訓練過程中算力消耗較大,帶來了過多的碳排放。在人的發展方面,人工智能以及更為廣義的數據智能改變了人認識和理解世界的方法,在不同的領域驅動新的創新和創造。目前在醫學領域,通過人工智能設計藥物分子式、預測藥物的理化性質和生物活性,節約了大量的實驗成本,而圖像識別技術應用于醫學影像分析也會大大提高了診療的準確性。在文化領域,人工智能創作音樂、影視作品的藝術表現力不斷提高。但上述應用對藥物研發和診療監管、知識產權等針對創新活動的監管制度也帶來了挑戰,以人的創新為對象的治理體系難以適配人工智能驅動的創新。因此,從長期來看,人工智能的發展需要充分考慮可持續發展目標、推動創新創造,人工智能的開發使用者應當主動承擔社會責任,讓技術應用服務更為先進的生產力;另一方面,也需要調整現有制度,以適應人工智能對人的生產發展帶來的積極改變。

        構建“以人為本”的人工智能治理體系,讓人工智能堅持以人為中心的價值目標,需要多方協同、共商共治。政府應當做好頂層設計,確定人工智能發展的價值目標和治理的總體要求,加強對影響隱私、公平等權益的人工智能的監督管理,在勞動保障、環境保護、知識創新等方面引導人工智能的發展方向。企業應該強化審慎自律,加強人工智能倫理教育培訓,對人工智能進行全生命周期管理,防范人工智能對人帶來的各種風險,開發和利用更負責任的人工智能。社會應當增進對人工智能技術的理解,對人工智能治理形成共識,積極反饋意見、提供建議,讓每一個人成為人工智能的使用者、受益者,也讓每一個人成為人工智能的設計者、治理者。

      網站編輯:王寒
      黨建網出品

      友情鏈接

      久久狼人AV五月天,亚洲欧美日韩久久精品,一级a性色生活片久久毛片,亚洲精品中文字幕久久久久