數字時代的演算法困境與治理路徑
作者:李曉華(中國社會科學院工業經濟研究所研究員)
當前,新一輪科技革命和産業變革深入推進,正在重構全球創新版圖、重塑全球經濟結構。雲計算、大數據、物聯網、移動網際網路、人工智慧、區塊鏈等數字技術群是影響最廣泛的推動力量,不但不斷催生新産品、新模式、新業態,而且作為通用目的技術在經濟社會生活中加速滲透融合,使其他産業領域産生顛覆性變革,數字産業化和産業數字化快速推進,數字經濟正成為世界各國最具活力、增速最快的新動能。
數字經濟的核心是數據,大數據、人工智慧等技術對經濟社會中各種數據廣泛和實時的採集和處理,使數據像工業時代的石油一樣成為數字經濟時代最重要的生産要素。目前主流的人工智慧技術路線是“大數據+機器學習”。演算法是強制給定的有限、抽象、有效、複合的控制結構,在一定的規則下實現特定的目的。隨著人工智慧技術的廣泛使用,演算法滲透進經濟社會生活的方方面面,一個演算法社會正在到來。演算法在帶動經濟增長、提高經濟效率、豐富和便利生活的同時,在市場競爭、資訊傳播、個人隱私、弱勢群體利益等方面的負面影響和風險也暴露出來,需要高度重視並加強演算法規制。
數字時代演算法困境的表現
演算法廣泛應用於國民經濟的各個領域,具有範圍寬廣、形態繁多的特點,由於其應用的領域和環節、影響的對象不同,演算法造成的負面影響和風險主要包括以下幾個方面:
第一,限制市場競爭。數字經濟在組織形態上的顯著特徵是超級平臺的興起,形成數字經濟與傳統産業在産業組織結構上的巨大差異。一是平臺成為典型的經營形態。數字經濟平臺屬於雙邊平臺,一邊連接最終産品或服務的用戶,另一邊連接這些産品或服務的供應商,平臺提供供應商與最終用戶之間的交易仲介服務以及實現交易所需的數字化工具、數字基礎設施和交易規則。二是數字經濟的市場集中度更高。由於網路效應的存在,數字經濟的細分産業領域在進入成熟階段後都呈現贏家通吃的格局,一兩家頭部企業佔有大多數市場份額,相比之下,傳統産業的市場集中度一般要低得多。三是超級平臺具有強大的市場勢力。由於佔有大多數市場份額,更由於平臺是數據集中與交換的樞紐,無論是入駐平臺的供應商還是最終用戶都處於非常弱勢的地位。平臺企業可以利用其市場優勢地位和對數據的掌控對供應商和最終用戶制定掠奪性價格;還可以利用數據優勢、用戶優勢,對具有潛力的新技術和新商業模式進行模倣,將初創企業排擠出市場,或者直接將初創企業收購,將自己在原有市場的優勢地位拓展到新興市場。即使在市場上仍存在多家平臺的情況下,平臺企業可以將演算法作為媒介建立共謀,通過向供應商、消費者收取高價而謀取不當利益。
第二,侵害用戶隱私。在數字經濟時代,數據是企業經濟效益的重要來源,數據的價值取決於顆粒度、鮮活度、連接度、反饋度、響應度、加工度等多個方面,精細化程度越高的資訊、越具有時效性的資訊、越能夠與其他資訊建立關聯的資訊,其經濟價值越高。用戶的資訊既可以直接用於數字經濟企業自身的商品導流或促銷,也可以出售給其他企業。為了佔有盡可能多的資訊,許多應用程式或APP未經用戶同意就直接獲取程式運作非必須的許可權,如定位功能、通訊錄訪問許可權等,甚至用戶不開放許可權就無法使用該程式。為了獲得網際網路帶來的便利性,消費者不得不選擇讓渡個人資訊。但是一方面,一些資訊的獲取沒有得到消費者的許可,屬於非法採集,另一方面,個人雖然是數據的生産者、所有者,但是這些數據一旦被網際網路公司獲取後就脫離其最初所有者的控制,個人不但無法知曉自己的資訊被用於何處,而且在後續的使用中可能會威脅個人的隱私,甚至可能對個人的財産和人身安全造成損害。
第三,造成演算法歧視。演算法歧視是基於演算法的自動化決策對個人所造成的不公平對待的現象。演算法歧視包括直接歧視和間接歧視,前者是由於個體所處特定社會群體而遭受的不同等待遇,後者是指表面中立的行為對不同社會群體成員造成不同等的影響。演算法歧視有多種成因,包括用於訓練演算法的歷史數據受到污染或存有偏見,演算法中使用性別、種族等具有明顯歧視性的數據,利用能夠顯示身份的代理變數(如用戶使用的手機品牌和價格)用於演算法模型訓練,個人偏見和歧視性觀點被植入演算法等。演算法歧視的一個典型是“大數據殺熟”。大數據殺熟是網際網路平臺利用演算法對用戶的歷史消費數據進行分析,相同的商品或服務對那些支付能力強、對價格不敏感的老顧客收取更高的價格。在傳統的商品市場上,商品的功能、品質高度標準化,價格不同很容易被發現,而網際網路服務通常是基於特定時間、特定場景的,時間、場景不同,市場上的供需關係就不同,並由此形成不同的市場價格,這就造成“大數據”殺熟更難被察覺、也更難被舉證。
第四,形成資訊繭房。通過對消費者註冊、瀏覽、搜索、購買、評價等網際網路使用歷史數據的分析,媒體平臺利用演算法可以向消費者精準推送其感興趣的資訊,以此增加用戶黏性和用戶鎖定。在資訊呈指數型爆炸增長的自媒體時代,平臺的推薦演算法雖然可以為消費者節約大量的資訊搜索時間,但也嚴重限制了消費者所能接收到的資訊的多樣性,推薦演算法會嚴格按照用戶自己的偏好設定和歷史數據定制化地推送資訊,而用戶在這類資訊上的駐留會進一步強化演算法對此類資訊推薦。人們被演算法圈定在“資訊繭房”裏,被動地接受演算法讓人們看到的資訊。同時,各類數字平臺的社交化導向會推動具有相同愛好和觀點的人在網路空間上聚集,進一步強化他們固有的愛好和觀點。演算法推薦會讓用戶只看到自己願意看到的觀點,造成資訊封閉、在認知上成為“井底之蛙”。在社會層面,資訊繭房還會形成用戶觀點的極化,造成不同群體之間的交流障礙,甚至由於思想的偏狹引致群體間的誤會,催生極端行為,引發社會矛盾和衝突。
第五,損害弱勢群體。數字經濟的發展和演算法的廣泛使用不會自動地平等惠及每一個人,弱勢群體反而會成為演算法的受損者。在日常生活中,由於數字技術對傳統生活方式的替代可能增加對數字技術不熟悉人群的不便。例如,網約車普及後,不會使用手機的老年人出現“打車難”。在工作中,合意的演算法應該有益於勞動者工作條件的改善、降低工作中的潛在傷害。但這只是演算法的美好的一面,演算法也會讓勞動者變成演算法的“奴隸”。例如,在外賣行業,外賣騎手在演算法的驅使下為了準時完成訂單、獲得準時獎勵或避免不準時的罰款,不僅會增加勞動強度,而且可能會採取超速、逆行、闖紅燈等高風險行為,被迫用事故概率來換取工作效率。
第六,帶來倫理挑戰。傳統上,人類主體使用某種技術以及該技術形成的産品和服務,同時承擔使用該項技術造成的法律後果或道德倫理責任,但是當人類把決策權交給演算法,由演算法自動地作出判斷、決策並實施行動時就形成了對道德倫理的挑戰。在大多數情況下,現有法律法規、政策和社會倫理對演算法造成的不良後果會形成約束,但是演算法的突飛猛進也會産生新的道德倫理問題,對人類文明長期形成的道德倫理準則形成新的挑戰,給人類社會的發展帶來新的風險。在著名的“電車難題”中,當無人駕駛汽車在事故在所難免時,它該如何作出決策:是優先保護車上的駕駛人員和乘客還是優先保護路上的行人?是選擇撞向道路上的多個行人還是撞向路邊的一個無辜看客?現有的法律甚至社會倫理並沒有對演算法規則如何設定提供明確的意見。由於智慧化系統是按照預先編好的程式作出決策,因此在一些領域的應用可能會造成巨大的風險。
數字時代演算法困境的成因
首先是人類的認知局限。演算法是人類開發設計的,必然也反映著人類的主觀認知。演算法困境的很重要原因是人類主觀認知的局限性造成的。一方面,開發演算法的人員可能會存在認知上的偏差甚至偏見,而演算法不僅會繼承人類的偏見,而且還可能隨著數據的積累和演算法的迭代而被強化和放大。另一方面,大數據、人工智慧以及作為其核心的演算法仍然是一個新生事物,人類對於其可能造成的負面影響存在認識不足的情況。在機器學習的技術路線下,程式員只需要給出一個合適的演算法而無需自己手動編寫詳細代碼,通過提供充足的用於訓練的數據,演算法可以自己調整、修改決策規則。這種學習能力賦予演算法一定程度的自主性,同樣也造成演算法執行任務的後果難以預測。
其次是企業的經濟動因。演算法雖然在客觀構成上是一系列冰冷的代碼,但它仍然是人類智力活動的結果,演算法既受到人類認知發展水準的制約,也不可避免受到人類主觀行為的影響。企業是追求經濟利益最大化的市場主體,企業對演算法功能的開發、設計必然服務於其經濟目標的實現。為了讓數據創造更大價值,企業會以各種方式獲得用戶數據;為了獲得流量,企業會根據數據對用戶精準畫像並進行定制化的資訊推送。帶有偏見和歧視的數據經過演算法運算之後産生的結果也會帶有不公平性。即使企業在開發演算法時沒有主觀惡意,如果將利潤最大化設定為演算法要實現的最終目標,演算法在自我學習、不斷迭代中形成的新版本也可能造成違反現有法律、社會倫理道德的後果。
再次是平臺的數據優勢。超級平臺是供應商和商品/服務最終用戶的交易仲介,掌握著雙方的搜索、評論、互動、收藏、交易等各種數據,而且在大數據、雲計算等技術的支援下,所有的歷史交易都能被保存、追溯和分析,再加上與其他來源數據的交叉比對,平臺能夠獲得供應商和用戶在網際網路上的全本資訊。相比之下,平臺上的供應商和用戶只擁有自己個人的數據,與平臺掌握的數據完全不在同一個數量級。平臺對數據的掌握也就意味著掌握了網際網路上最重要的流量,它既可以向供應商出售流量,也可以引導最終用戶的流量。面對平臺的數據和流量優勢以及高度集中的市場格局,供應商在與平臺的談判中毫無優勢,因此就出現了“二選一”等現象。同樣,平臺還能夠利用對消費者近乎完全的資訊掌握,對消費者制定高度差異化的歧視性價格,而處於資訊劣勢的消費者只能被動地接受平臺制定的價格。
第四是演算法的技術黑箱。企業的演算法對於它的供應商、用戶以及監管機構存在著很高的不透明性。演算法的不透明性有三種來源:一是由於商業秘密保護所導致的不透明性,這種以維護競爭優勢為名的保護也可能是一種規避法規、操縱消費者和實施歧視的新形式的掩護;二是對於技術外行的不透明性,編寫和閱讀代碼和演算法設計是一項高度專業化的技能,需要長期的學習和經驗積累,大多數人無法勝任;三是演算法本身複雜性導致的不透明性,機器學習形成的演算法不但規模巨大,而且演算法的內部邏輯隨著對訓練數據的學習而不斷改變會進一步增加代碼的複雜性。不透明性使企業的演算法成為很難為外界所知的技術黑箱,數據的海量化,場景的個性化,演算法的專業化增加了外界監督的難度,助長了一些企業經營者和演算法開發者為追求經濟利益而採取有悖法律法規、社會道德倫理的行為。
最後是數據素養的差異。國家間由於經濟發展、數字基礎設施、數字産品購買力以及素質教育的不同,而出現的數字化程度的巨大差異被稱為“數字鴻溝”。即使在同一個國家內部,數字鴻溝因為所處地區、收入水準、受教育水準、年齡等而同樣存在。在我國由於大規模的資訊基礎設施建設,網路覆蓋率的差異已經不成為數字鴻溝的主要原因,個人智慧終端性價比的不斷提高也促進能夠聯網的智慧設備日益普及,數字鴻溝實際上主要存在於代際之間。年輕一代是數字經濟原住民,從小就使用數字産品並接受素質教育,而老年人由於學習能力差、購買力低,許多人沒有智慧終端,即使有智慧終端也無法掌握各種操作,使他們被排斥在數字經濟帶來的強大生活功能和便利性之外。
數字時代演算法困境的治理路徑
在數字時代,隨著演算法應用領域的不斷擴大,任其無序發展會進一步放大可能帶來的風險和危害。因此,要堅持促進發展和監管規範兩手抓、兩手都要硬,一方面推動演算法相關技術的進步,完善算力基礎設施,創造數據流通、交易的法律制度環境,另一方面也要加強對演算法的規制和對演算法困境的治理。
一是加強企業社會責任建設。督促網際網路企業以及正在進行數字化轉型的企業加強企業社會責任建設,規範規則設立、數據處理、演算法制定等行為,在演算法設計之初就要將法律、核心價值觀、道德倫理等人類價值嵌入到演算法之中,讓數字科技企業、演算法開發人員將服務於國家和社會利益、造福於人民群眾作為基本遵循。演算法開發者應提高演算法的透明度和可解釋性,增強對演算法安全評估和管控能力;當演算法開發者遇到演算法可能造成危害和風險時,主動對演算法進行修正和調整,推動形成負責任的演算法,實現演算法向善。
二是完善演算法治理規則。進一步完善數據立法,對數據的權屬、轉讓、交易等進行規定。積極參與數據跨境流動、演算法應用、演算法安全等領域國際規則合作,完善多邊數字經濟治理機制。根據數字經濟發展出現的新模式、新業態、新現象、新問題,研究制定關於新型不正當競爭行為認定、處罰的法律規範。針對零工經濟、靈活就業現象,研究完善平臺從業人員權益保護規定和社保政策等。通過制定合理使用演算法的法律規範,防止數字企業利用數據優勢和演算法技術排除、限制競爭,加強消費者權益的保護,維護公平競爭秩序。
三是加強對演算法的規制。儘管演算法具有很高的技術門檻,但政府對網際網路公司的監管應擴大到演算法層面。賦予監管機構監管數據和演算法的權力,探索基於大數據、人工智慧、區塊鏈等新技術的監管模式,增強監管部門的監管能力,提高演算法相關風險的識別、預警和防範。對演算法開發者和使用者設置演算法審查、演算法風險評估與演算法解釋等義務。當演算法使用過程中出現有損於社會利益的結果或暴露潛在風險時,監管機構有權打開演算法黑箱,聘請第三方服務機構或組成專家委員會對企業的數據與演算法合規性進行審查。
四是建設數字友好型社會。繼續推動資訊基礎設施建設,提高通信網路的覆蓋率和可獲得性。加強對邊遠地區、老年人、少年兒童的數字應用教育,幫助他們掌握數字設備的使用。行業主管部門應發佈規定,要求智慧硬體開發和網際網路服務提供企業,在産品和演算法開發時,要考慮老年人、殘疾人等社會弱勢群體的需求,提高演算法對弱勢群體的友好性。例如,通過一鍵叫車、人工客服接入等設置提高演算法的“適老化”程度。