把握算法的倫理邊界

2021-06-30 查看(3363)

算法是計算機的核心運行邏輯,是一(yī)套基于設計目的的數據處理指令的總和。其主要特征是,通過規範化的輸入,經由算法取得相應的輸出結果。在計算機技術發展早期,算法主要被用來提升計算機軟件的運行效率。随着互聯網技術尤其是移動互聯網和物(wù)聯網的迅速發展,計算機領域的商(shāng)業模式不再是簡單地出售軟件使用權,而是通過深度介入用戶的工(gōng)作和生(shēng)活來獲取利潤。算法的運算對象逐漸由物(wù)變成了人,其内在的價值屬性逐漸顯現,對其的倫理規範也變得迫切起來。

1.算法歧視。當人成爲算法的運算對象時,算法會把人作爲獲取利潤或其他“理性”目的的分(fēn)析對象,人在這個過程中(zhōng)會被打上标簽“分(fēn)揀”。比如,根據“用戶畫像”将同類商(shāng)品和服務差異化定價、對應聘人員(yuán)的簡曆經過計算機篩選後差異化投遞等。在這個關系中(zhōng)呈現的是用戶的工(gōng)具化,該歧視源于爲提升攫取利潤的效率而造成的人在算法下(xià)被物(wù)化。算法的歧視有其隐蔽性,因爲“算法黑箱”并不會向外(wài)界公布,而且即使公布了也并不能讓大(dà)多數人看懂。由于提供的服務和商(shāng)品個性化越來越強,被算法施加影響的不同個體(tǐ)之間,也不容易通過對比發現問題。因此,會出現因手機品牌、曆史購買頻(pín)次、居住區域等變量不同的用戶,在購買同樣的服務和商(shāng)品時顯示的價格不同,甚至通過顯示“售罄”等方式拒絕爲特定用戶服務。除消費(fèi)歧視外(wài),算法的歧視還會識别并加劇社會不公平現象的産生(shēng),即使這種不公平的影響可能并不能在當下(xià)體(tǐ)現或者被發現。比如,一(yī)些美國高校的簡曆篩選系統會自動根據現有生(shēng)源情況對應試學生(shēng)分(fēn)門别類,這會阻礙社會結構向着更加公平的方向變化。還有一(yī)點更需要我(wǒ)們警覺:算法并不總是能夠向着其設計者希望的方向運行。随着機器學習能力的不斷強化,其篩選标準會變得越來越複雜(zá)。但不論标準如何,我(wǒ)們都不可能寄希望于機器能夠用人類的價值觀識别并處理數據——這會讓未來深度依賴算法的世界充滿晦暗不明的價值虛無主義。

2.算法控制。互聯網企業,尤其是大(dà)型平台公司的經營邏輯十分(fēn)重視活躍用戶數量、商(shāng)品交易總額等數據,這使得提升用戶黏性、獲取用戶數據畫像成爲算法設計的重要目标。一(yī)是強化已有的社會控制。如辦公信息系統,通過通信軟件和流程管理軟件将員(yuán)工(gōng)全天候鏈接在一(yī)起,以提升生(shēng)産效率。現在互聯網平台公司也在逐步介入公共服務,幫助行政部門提升管理效率。比如,現在常用的防疫相關軟件、公共發布平台、接入公共費(fèi)用交納系統等。二是創造新的控制系統。這主要是挖掘人類的自然需求,并用更高的效率放(fàng)大(dà)該需求以産生(shēng)路徑依賴。比如社交、消費(fèi)、學習、信息檢索、導航定位、影視及遊戲娛樂等。其中(zhōng)甚至不少是用虧損來滿足人們的需求。比如,維持社交軟件的運轉需要較高費(fèi)用,其設計目的就是培養更大(dà)的用戶基數和使用習慣。與行政單位運用明示的法律法規約束人的行爲不同,平台是用效率、依賴和成瘾性控制用戶。用戶在大(dà)型平台公司面前處于實質上的權力弱勢地位,從而被深度嵌入産業環節産生(shēng)一(yī)種隐形不自由。關于此類技術的倫理問題的讨論,已越發具有重要性和必要性。

3.算法投喂。互聯網信息傳播經曆了門戶網站單向展示階段、用戶主動檢索階段,目前已進入基于算法主動提供個性化信息的階段。哈佛大(dà)學法學教授桑斯坦(Cass R. Sunstein)在《網絡共和國》一(yī)書(shū)中(zhōng)提出,“信息繭房”指人們在信息領域會習慣性地被自己的興趣所引導,從而将自己的生(shēng)活桎梏于像蠶繭一(yī)般的“繭房”中(zhōng)的現象。而當前以“投其所好”爲原則的算法,大(dà)大(dà)提升了“作繭自縛”的效率。人們想象中(zhōng)的多元融合往往沒有出現,反而出現了更多的極化現象。在互聯網發展早期,學界普遍認爲信息的高效流動可以照顧到不同群體(tǐ)的個性化偏好,促進多元文明的相互交流。随着早期互聯網的發展,尤其是門戶媒體(tǐ)和搜索引擎出現後,文化的碰撞一(yī)直在朝着互相融合的方向演進。但随着算法的不斷演進,我(wǒ)們卻發現如今多元主義并沒有在全球蓬勃興起,反而出現了某些更爲深刻的社會割裂,而且呈加速趨勢。以往是人們自己主動尋求群體(tǐ)和文化認同,在尋找的過程中(zhōng)會不斷接觸新的信息和價值觀,逐漸呈現爲一(yī)種開(kāi)放(fàng)的價值系統。而現在的算法是主動将人分(fēn)類并高效率推送趨同的内容,因此“信息繭房”導緻極化的速度大(dà)大(dà)加快了。多元文化需要求同存異的土壤,更多是指可以不斷接受新事物(wù),并從多元化的環境中(zhōng)汲取養分(fēn),不斷豐富和發展自身,其内在邏輯應該是複雜(zá)的偏好在同一(yī)個場域中(zhōng)同時被滿足和照顧。而現在算法的邏輯,是讓不同的用戶在不同的場域分(fēn)别被滿足。這不是多元化,而是多極化,其最終結果是在文化層面的社會割裂。

生(shēng)命倫理學家恩格爾哈特(H. Tristram Engelhardt, Jr.)在《生(shēng)命倫理學的基礎》一(yī)書(shū)中(zhōng)提出了“道德異鄉人”的概念,指那些持有和我(wǒ)們不同的道德前提的人,他們生(shēng)活在不同的道德共同體(tǐ)中(zhōng),在與他們合作時會存在基礎的價值取向沖突,包括但不限于對程序的适用、對善的理解、對正義的分(fēn)配等,從而會導緻對話(huà)困難。《倫理學綱要》一(yī)書(shū)中(zhōng)提出,應通過建立公共理性、完善現代社會性道德(首先是現代性外(wài)在倫理秩序),來使現代的内容與現代公共理性的形式相匹配。正因如此,我(wǒ)們需要基于一(yī)個能夠讓大(dà)多數人都認可的核心價值或公共理性的原則,來劃定算法的倫理邊界。現代文明進步的重要成果,就是打破了不同群體(tǐ)之間的界限,突出了人本身的尊嚴,尊重作爲人本身的自主性價值,進而通過文化、經濟、政治等的融合,讓人與人得以互相理解。而算法的倫理邊界,應是促進或至少不能破壞這些成果。

面對算法發展導緻的各類現實問題,需要我(wǒ)們在設計算法時嚴守非歧視性、用戶的非物(wù)質性、個人選擇權的不可剝奪性這三條原則。非歧視性原則,指不能根據“用戶畫像”的不同實行差别化待遇,這裏體(tǐ)現的是平等的價值。用戶的非物(wù)質性,意味着算法應尊重用戶作爲人的主體(tǐ)性,不能對其簡單地進行“物(wù)化”或“數據化”。同時,由于技術的演進,算法對人的控制已開(kāi)始由工(gōng)作的特定時間發展爲充斥于人的生(shēng)活的方方面面,更加快速的信息流已在逼近人的生(shēng)理極限,效率提高的同時也在剝奪人的閑暇時光。科技的發展應給人帶來便利而非控制,算法在設計之初就應盡可能地考慮到主體(tǐ)之間的強弱勢支配關系,不能僅以技術中(zhōng)性爲擋箭牌,間接助長“效率之惡”。個人選擇權的不可剝奪性,則是指要保障人自主獲取信息的權利,這是對人類探索精神的尊重和保護。我(wǒ)們不能僅用算法來判斷人們的需求和偏好,精準的“個性化匹配”應有更多的倫理考量。

算法與很多其他科技不同的一(yī)點在于,不少科技的産生(shēng)是基于“發明”這一(yī)人類實踐活動的,而算法則是以“設計”作爲技術産生(shēng)的呈現方式。發明是科技适應人的體(tǐ)現,是爲了給人帶來更多的便利,補齊或增強僅依靠人的自然屬性難以滿足的需求。這從“懶是科技進步的原動力”這一(yī)句廣爲流傳的打趣便可以看出,倫理對發明往往是進行後續的回應和規範,不論從規範需求還是規範可能性上來看,都很難做到前置約束。從目前的實踐看來,也隻有以人爲對象的醫學倫理能夠做到一(yī)定程度的前置約束。但設計作爲算法的前置性程序,倫理提前介入進行評估是可行的。而且,目前算法設計的核心原則是以人爲作用對象,以計算機邏輯爲中(zhōng)心。人在設計中(zhōng)來适應技術,需要使用大(dà)量的時間和智力來學習、适配計算機。隻要技術的作用對象是人,那麽倫理的提前介入就是必要的。随着計算機技術的滲透率不斷上升,人類社會對算法的依賴程度不斷加深是一(yī)個難以逆轉的趨勢,這也是“科技樹(shù)”不斷向效率更高的方向生(shēng)長的客觀規律。正因如此,我(wǒ)們應守住科技造福人類這一(yī)根本原則,并更加深入研究讨論“何爲人類之福”這一(yī)深刻而又(yòu)基礎的倫理問題,爲算法的狂飙突進戴上缰繩,守住倫理邊界。

(作者單位:中(zhōng)國人民大(dà)學倫理學與道德建設研究中(zhōng)心)

來源:中(zhōng)國社會科學網-中(zhōng)國社會科學報 作者:王家亮



掃二維碼與項目經理溝通

我(wǒ)們在微信上24小(xiǎo)時期待你的聲音

解答本文疑問/技術咨詢/運營咨詢/技術建議/互聯網交流

鄭重聲明:郑州禾木网络技术有限公司網絡科技有限公司以外(wài)的任何單位或個人,不得使用該案例作爲工(gōng)作成功展示!