• 台灣網移動版

    台灣網移動版

學苑論衡:保障人工智慧健康發展

2020-07-13 09:49:00
來源:人民網-人民日報
字號

  人工智慧作為一種具有代表性的顛覆性技術,正在釋放科技革命和産業變革積蓄的巨大能量,深刻改變著人類生産生活方式和思維方式。習近平總書記強調:“要整合多學科力量,加強人工智慧相關法律、倫理、社會問題研究,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德。”保障人工智慧健康發展,需要採取合理有效的舉措,防範人工智慧技術可能帶來的倫理道德風險,讓這一技術更好服務於經濟社會發展。

  人工智慧發展存在倫理道德風險。在新一輪科技革命和産業變革中,人工智慧是一項戰略性技術,具有很強的“頭雁效應”,在有力推動經濟社會發展的同時,也帶來一系列風險與挑戰。其中,倫理道德風險是一個重要方面。實際上,伴隨人工智慧技術的發展,關於其可能誘發倫理道德風險的討論從未停止。有人擔憂,資訊時代,人工智慧創造物已不僅僅是技術化的工具,而是越來越具有類似於人類思維的能力,甚至在某些方面具有超越人類思維的能力。人工智慧發展到一定程度,有可能威脅人類思維主體地位。也有觀點認為,人工智慧應用存在隱私洩露的倫理風險。人工智慧應用需要以海量資訊數據作支撐,正是由於大數據的使用、算力的提高和演算法的突破,人工智慧才得以快速發展、廣泛應用,並呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等特徵。人工智慧越“智慧”,就越需要獲取、存儲、分析更多的資訊數據。在這一過程中,涉及個人隱私的資訊,如個人身份資訊數據、網路行為軌跡數據以及對數據處理分析形成的偏好資訊、預測資訊等,往往以數據的形式被存儲、複製、傳播。獲取和處理海量資訊數據,不可避免會涉及個人隱私保護這一倫理問題。如果缺乏倫理道德規範,就有可能誘發隱私洩露的倫理道德風險。此外,隨著人工智慧自主性的提高,人工智慧侵權責任中的因果關係、過錯等要件的判斷日趨複雜,人工智慧應用的權利責任歸屬問題也被廣泛關注和討論。

  增強人工智慧倫理道德風險防控意識。人工智慧之所以存在倫理道德風險,究其主要原因,一方面是這一技術還不夠完善;另一方面是目前人工智慧健康發展的倫理道德保障機制仍然不夠健全,同快速發展的人工智慧技術相比,與之相關的倫理道德規章制度發展相對滯後。解決這些問題,一項基礎性工作是增強人工智慧倫理道德風險防控意識。目前,在一些地方和領域,公眾對人工智慧可能誘發的倫理道德風險重視程度還不夠高。增強人工智慧倫理道德風險防控意識是一項系統工程,涉及科技研發、應用各環節。在科技研發環節,重在完善人工智慧從業機構與倫理道德研究、教育、監督機構之間的長期溝通交流機制,不斷提高科技從業人員的倫理道德水準,引導研發人員增強風險防控意識,嚴守科技倫理底線,強化倫理責任。在研發初始環節,尤須增強道德風險防控意識,預測和評估人工智慧産品可能引發的道德危害,從設計源頭進行規範。進而將這種倫理意識貫穿于研發全過程,防止人工智慧被非法利用進而危害社會,確保科技研發活動始終在倫理道德的軌道上平穩運作。在應用環節,同樣需要繃緊倫理道德風險防控這根弦,在全社會加強涉及人工智慧的倫理道德教育,普及與人工智慧相關的法律法規知識,引導社會公眾以正確的價值觀念看待和運用人工智慧技術,在享受其帶來的便利的同時,對其中的倫理道德風險始終保持高度警惕,推動全社會共同參與科技倫理治理。

  依靠制度確保人工智慧安全可控可靠。將人工智慧可能誘發的倫理道德風險降到最低,保障人工智慧健康發展,必鬚根據人工智慧發展實際,針對其可能帶來的倫理道德風險,不斷完善指導和規範人工智慧發展的倫理道德原則。在此基礎上,建立健全相關制度體系,從而及時發現、有效解決人工智慧技術發展中的各類倫理道德問題,確保人工智慧安全可控可靠。2019年6月,國家新一代人工智慧治理專業委員會發佈《新一代人工智慧治理原則——發展負責任的人工智慧》,對促進新一代人工智慧健康發展,加強人工智慧法律、倫理、社會問題研究提出明確要求。依靠制度建設,防範和化解人工智慧可能帶來的倫理道德風險,需要相關從業人員大力弘揚社會主義核心價值觀,在技術開發和應用過程中,嚴格遵守標準、流程等方面的規定,充分尊重和保護個人隱私,保障個人的知情權和選擇權。不斷加強人工智慧的倫理道德監管,在相關法律法規中,進一步強化隱私權保護,充分保障公民在人工智慧應用中的知情權和選擇權。嚴格規範人工智慧應用中個人資訊的收集、存儲、處理、使用等程式,嚴禁竊取、篡改、洩露和其他非法收集利用個人資訊的行為,確保人工智慧朝著對全人類、全社會及自然生態有益的方向發展,更好為經濟社會發展和人民美好生活服務。

  (作者為貴州大學馬克思主義學院教授)

  《 人民日報 》( 2020年07月13日 09 版)

[責任編輯:楊永青]