熱門標簽:代寫本科論文 寫作發表 工程師論文 代寫一篇論文多少錢
                        當前位置: 代寫一篇論文多少錢 > 計算機論文 > 人工智能技術中存在的風險和防范措施

                        人工智能技術中存在的風險和防范措施

                        時間:2019-07-11 14:30作者:曼切
                        本文導讀:這是一篇關于人工智能技術中存在的風險和防范措施的文章,人工智能對人類社會產生了極其重要的影響, 從智能導航系統到老年護理系統, 從智能生產線到排雷機器人, 人工智能從過去的解放了人類的雙手到現在甚至解放了人腦, 人工智能技術給人類帶來便利的同時, 也存在一些風險。

                          摘    要: 隨著人工智能日漸融入人類生活, 人工智能的發展引發了學者的普遍關注, 特別是人工智能技術引發的風險問題。人工智能給人類社會生活帶來便利的同時, 也可能引發隱私泄露風險、人的主體性地位喪失的風險以及帶來新的社會風險。為了應對人工智能及智能技術的發展帶來的各種問題, 應該從規制隱私泄露、避免人的主體性地位喪失以及維護社會的安全與穩定等視角思考風險規避路徑。

                          關鍵詞: 人工智能; 風險; 社會風險; 道德嵌入;

                          Abstract: With the development of artificial intelligence, artificial intelligence has been integrated into human life.The development of artificial intelligence has also attracted the attention of scholars, especially the risk problems caused by the technology of artificial intelligence.While artificial intelligence brings convenience to human social life, it may also lead to risks of privacy disclosure, loss of human subjectivity and new social risks.In order to deal with various problems caused by the development of artificial intelligence and intelligent technology, we should consider the risk avoidance path from the perspectives of regulating privacy disclosure, avoiding the loss of people's subjectivity and maintaining social security and stability.

                          Keyword: artificial intelligence; risk; social risk; moral embedment;

                          人工智能自誕生以來, 不斷取得新的技術突破, 弗洛里迪 (Luciano Floridi) 把“人工智能革命”稱為“第四次革命”[1]。人工智能對人類社會產生了極其重要的影響, 從智能導航系統到老年護理系統, 從智能生產線到排雷機器人, 人工智能從過去的解放了人類的雙手到現在甚至解放了人腦, 人工智能技術給人類帶來便利的同時, 也存在一些風險。

                          一、人工智能技術風險分析

                          人工智能技術的突飛猛進, 使人們產生了技術無所不能的幻象, “這個社會在技術上越來越完善, 它甚至能夠提供越來越完美的解決辦法, 但是, 與此息息相關的后果和種種危險卻是受害人根本無法直覺到的”[2]。人工智能技術風險主要包括數據泄露對個人、企業和國家帶來的巨大風險;人工智能可能威脅人的主體性地位, 使人淪為機器的奴隸;人工智能生產效率的提高會給社會帶來如失業等負面影響。

                          (一) 人工智能引發數據泄露風險

                          人工智能技術的發展需要大數據 (big data) 來支持, 大數據指的是所涉及的數據規模巨大甚至無法通過傳統的數據分析軟件和程序對數據進行有針對性的分析、攝取和管理的海量數據, 海量數據中包括個人數據、商業數據、政府數據等多種數據, 這些數據的泄露將會給個人、商業和政府部門帶來巨大的風險。

                          人工智能技術在大數據的支持下快速發展, 由于技術發展速度和水平的不一致, 對于數據管理和使用的各個環節都可能存在漏洞。

                          在數據采集環節, 不同的數據采集程序對數據采集的標準和精度各異, 會導致不符合標準與精度的數據泄露, 如采集收入狀況的程序會把負債數據剔除, 從而造成負債數據的泄露。目前不少人工智能技術對使用者的信息存在過度采集的情況。如VR技術會對使用者的面部物理特征進行采集, 從而造成使用者隱私泄露。

                          在數據分析環節, 不同的算法對相同的數據有著不同分析程序, 從而將算法認為不重要的數據內容不予分析甚至剔除, 從而造成數據泄露。如2017年美國五角大樓架在亞馬遜S3云存儲的數據庫, 由于人工智能程序的錯配, 使得三臺S3型人工智能服務器的數據“可公開下載”, 其中包括了約18億條關于美國主要社交論壇的個人發言記錄和登錄地址, 而一旦這些信息被不法分子濫用, 將會給發言者個人、論壇和社會帶來巨大風險。

                          在數據管理環節, 數據的使用者對于數據的管理不當或者惡意泄露會造成數據在管理環節的泄露。另一方面, 人工智能技術對于數據的使用者權限設置并不完善, 無法區分數據的使用性質, 從而會造成數據的泄露。

                        人工智能技術中存在的風險和防范措施

                          (二) 人工智能技術威脅人的主體地位

                          人工智能技術會在一定程度上挑戰人的主體地位, 威脅人的自主地位。人工智能技術給人類社會帶來巨大變革的同時, 也使人類陷入混沌和迷茫, 在當今社會背景下, 人類全方面服從于技術, 人的身心自由受到了挑戰, 人類在一定程度上淪為人工智能的“奴隸”。馬爾庫塞 (Herbert Marcuse) 指出, “因為這種不自由既不表現為不合理的, 又不表現為政治性的, 而是表現為對擴大舒適生活、提高勞動生產率的技術裝置的屈從。”[3]例如動車需要駕駛員每隔30秒踩踏安全踏板一次, 否則會強制停車。除此之外, 人的主體性地位喪失還表現在由于人工智能能夠高效而廉價地完成人類的許多工作, 會使人類對自身的勞動價值和意義產生懷疑, 如一個人一個月的工作量人工智能技術一個小時就能完成, 那么人們會對自身工作的意義和價值產生懷疑。隨著人工智能技術在人類情感領域內不斷取得新的突破, 智能伴侶、虛擬情侶等產品的產生更對人類情感的獨特性帶來巨大沖擊, “技術可以導致人類的勞動價值喪失;個人的孤獨封閉和人際間的疏遠冷漠等精神方面。人的思維成為無必要的。技術就是一個摒棄人類能力的過程”[4]。更有預言家提出人工智能最終將統治人類, 甚至毀滅人類。因此, 越先進的人工智能技術, 越挑戰人類的主體性地位。

                          (三) 人工智能帶來新的社會倫理風險

                          人工智能技術給社會帶來倫理風險, 對社會的穩定和發展構成沖擊, 這些問題都引發學者思考[5]。美國路易斯維爾大學網絡安全實驗室主任亞姆波斯基 (Roman Yampolskiy) 教授的論文《人工智能與網絡安全:人工智能失效時間表》對2016年人工智能發展帶來的問題進行梳理[6], 包括微軟聊天機器人Tay散布種族主義、特斯拉半自動駕駛系統發生車禍, 致人死亡。人臉識別存在種族或者人種歧視現象, 人工智能可能導致數據鴻溝以及社會公正與社會正義等等各種社會風險。機器學習的應用讓阿爾法狗戰勝世界圍棋冠軍棋手, 卻給人類帶來了機器智能超越人類智能的擔憂?傮w而言, 人工智能技術給社會帶來的風險主要分布在政治、經濟、文化、社會等各個領域。在政治領域, 人工智能通過高效的技術優勢, 可以對選舉進行操控和干預;在社會公平領域, 擁有人工智能技術的國家和地區會對沒有該技術的國家和地區帶來數字鴻溝, 拉大貧富差距;在經濟領域, 人工智能技術的使用會造成不正當競爭, 干擾或者破壞正常的經濟秩序, 拉大物質財富差距;在文化領域, 人工智能疏遠了人與人之間的距離, 使人們沉迷于人工智能技術成果, 造成上癮、迷失自我等問題, 如互動性電子游戲;在社會領域, 人工智能技術的運用會造成大批勞動者的失業, 失業者過多會給發放失業補貼的政府財政和社會穩定帶來巨大壓力;在安全領域, 人工智能技術會導致人類傷亡, 如軍用無人機帶來大批平民死亡。除此之外, 人工智能技術在商業領域、教育領域、醫療領域和科學研究領域都會帶來較大風險。

                          二、人工智能技術風險原因淺析

                          (一) 人工智能設計者的主觀因素導致風險

                          設計人員自身原因導致風險。不同的設計人員有著不同的成長經歷和教育背景, 從而形成了每個人相對獨立和穩定的價值觀, 也形成了根深蒂固的偏見和習慣看法, 不同的設計人員對于同一件事的觀點和看法可能大不相同, 所以對于人工智能技術的風險認識會良莠不齊, 甚至背道而馳, 因此, 設計出來的人工智能也會相應缺乏對于風險的準確把控。設計者的設計意圖也會導致風險。設計者的設計意圖與利益驅使、企業目標等有關, 設計者為了自身利益最大化, 企業為了盈利最大化, 人工智能技術的使用者亦為了自身利益得到保障, 忽視其他重要因素帶來的如破壞社會公平、污染環境等不良后果, 而去追求最高的收益。在各方利益的驅使下, 人工智能技術的設計者刻意忽視的社會公平、環境保護等方面的因素會給不使用人工智能技術的人帶來巨大風險和挑戰。

                          (二) 人工智能技術中的算法引發風險

                          人工智能的核心運行支持是算法, 而算法具有不透明性和運行的自主性, 是造成人工智能具有風險的客觀原因。由于算法體現出來的所謂的“客觀性”, 因此算法被認為具有相當的決策權力, “越來越多的權力存在于算法之中, 它不僅塑造社會與文化, 直接影響與控制個人生活, 甚至獲得了真理的地位”[7]。算法的不透明性即所謂的“算法黑箱”, 也就是算法程序的可解釋性困難, 算法的可解釋性即“展示自己或其它主題做出的決定所依賴的原因”[8], 由于算法內部的運行機制缺乏足夠的可解釋性, 所以不難理解為什么會產生各種各樣的“算法歧視”, 比如黑人總會優先和犯罪分子建立聯系, 而白人則總是最后才和犯罪分子掛鉤, 歐米內 (Omer Tene) 和波洛尼斯基 (Jules Polonetsky) 所說的:“即使使用不敏感的數據, 預測分析也可能對個人和社會產生令人窒息的影響, 從而延續舊的偏見。”[8]算法的不透明性則直接挑戰了人類的知情權和主體地位。荷蘭學者泰勒 (Linnet Taylor) 指出, “算法分組的目的大多不是訪問或識別個人, 而是識別一個群體的偏好或特征, 從而進行有效地干預。在此過程中包括算法設計者在內的每個人都可能不知道個體數據是否正在被誤用或濫用, 而現有的數據保護也并沒有涉及到集體隱私保護問題。”[10]而另一方面, 當缺乏可解釋性的算法一旦運行起來, 那么這種智能程序將獲得相當程度的自主性, 意味著在一定時間和范圍內可以根據既定算法自主決策。如依靠人臉識別系統自主識別犯罪在逃人員, 當一個和在逃人員長相相似的人出現的時候, 算法既不透明, 又自主運行, 很可能將這個人認定為逃犯, 從而給這個人帶來困擾和麻煩。算法的不透明性和自主性是人工智能技術存在和發展難以逾越的技術阻礙。

                          (三) 人工智能技術的設計目的與結果脫離產生風險

                          “設計者作為專業知識的掌握者和技術的應用者, 他們處于技術活動的‘第一線’, 是技術人工物創造的首席執行者。”[11]人工智能技術設計的初衷與實際的運用結果可能大相徑庭, 正如同貝爾發明電話的初衷是解決聽力障礙者的聽力困境而并非是作為通訊設備一樣, 人工智能技術也面臨這種情況。人工智能技術的設計師按照自己的意愿和理念設計出來的人工智能技術人工物與技術人工物的實際使用情況并不能夠完全符合設計者預期, 甚至能夠產生完全相反的效果, “科學家們應該認識到機器人或是其他高技術人造物, 能夠對社會的發展造成影響, 這個影響可能與技術設計的初衷相違背”[12]。人工智能技術的發展初衷是提高人類的生活水平和生活質量, 但是現實情況卻是更多的人成為人工智能技術的奴隸, 無時無刻為技術所支配, 從而客觀上降低了實際的生活水平和生活質量, 更有甚者不堪壓力選擇辭職甚至自殺, 這些現實結果毫無疑問與人工智能技術的設計初衷完全背道而馳。人工智能的設計離不開設計者的努力, 所設計出來的人工智能凝聚著設計團隊的心血和智慧, 但是并不是所有的設計者都是“完人”, 由于設計者或者設計團隊的偏見、錯誤的認知、思考的局限性等人為因素的影響以及編制算法存在缺陷等技術漏洞, 所設計出來的人工智能也會存在一定程度的缺陷。

                          人工智能技術之所以存在風險, 與設計者的主觀局限性、程序算法的不透明性及自主性、人工智能技術的目的與結果不一致性密切相關。人工智能技術所面對的諸多風險和挑戰以及背后的不同原因, 并不意味者我們面對這樣的風險和挑戰束手無策, 作為人工智能技術開發者的人類, 完全有能力, 有責任, 更有義務去解決這樣的困難, 從而使人工智能更好地服務于人類, 因此, 我們需要深入思考人工智能技術風險的規避措施, 思考怎樣可以最大限度的規避風險、降低危害, 從而保障人類的主體地位。

                          三、人工智能技術風險的規避措施

                          人工智能技術是近幾十年最重要的科技成果之一, 各國都重視人工智能的發展, 許多國家已經認識到了人工智能技術所帶來的風險和挑戰, 并試圖從包括立法在內的多種角度來規避風險, 保障人工智能技術的安全[13], 主要從以下三個方面入手:以保障數據安全為根本立足點;以保障人的主體地位為前提;以維護社會安全和穩定為目標。

                          (一) 以保障數據安全為根本立足點

                          人工智能發展為了提高人類的生活水平, 不應該以放棄隱私為代價。保障數據安全是人工智能發展的根本前提條件。

                          為了避免數據泄露:一是要給予數據采集者“知情同意”的權利, 使用戶可以知道自己的個人信息如何處理。二是人工智能設計者對用戶的數據安全負有責任。在數據獲取和儲存階段準確區分數據類型, 包含核心數據安全, 如個人隱私數據、商業研發數據等通過數據加密技術等措施對核心數據進行重點保護。三是在數據應用層面進行安全保護, 通過在線網絡 (online social network) 保護數據, 如通過匿名化數據發布、隱私保護數據挖掘 (privacy-preserving data mining) 發布方式、差異化隱私 (differential privacy) 保護、數據訪問限制、數據水印技術、數據溯源技術、數據加密和訪問控制等技術對用戶的信息和數據安全進行保護, 同時對于威脅信息和數據安全的技術漏洞進行防范。四是從監管方面入手建立健全保護數據安全的法律法規。有關政府部門和組織落實監管責任, 加快信息安全的法制建設, 對于信息安全可能產生的糾紛做好調解工作, 嚴格實施立法保護和執法追責, 對于私自竊取機密信息的個人和企業依法追究責任。五是構建算法治理的約束機制, 加強算法監管, 要求對于涉及公眾利益的程序開源算法, 保障公眾信息安全。六是確保數據登陸與使用安全, 在程序設定上進行優化, 通過指紋區分不同的操作者。保障使用者的數據安全, 建立刪除程序, 每一個使用者使用完畢后, 任何信息都得不到保存, 切實保障隱私安全;對于在私密空間包括家庭當中使用的人工智能產品, 在程序中可以定期向使用者匯報搜集信息的使用情況和上傳信息的流向, 最后設置遠程遙控識別系統, 限制遠程、陌生的遠程遙控, 等等。通過上述措施保障數據安全, 確保人工智能技術的安全運行。除此之外, 聯合國教科文組織 (The United Nations Education, Scientific and Cultural Organization) 與世界科學知識與技術倫理委員會 (World Commission on the Ethics of Scientific Knowledge and Technology) 在2015年的報告中提出保護數據與隱私安全等措施。需要進一步完善通過設計保護隱私 (privacy by design) 、默認保護隱私 (privacy by default) 、知情同意、加密等概念的標準來保護人工智能時代的信息安全。

                          (二) 以保障人的主體性地位為前提

                          人工智能的發展改變了傳統的人和技術的關系, 傳統的人與技術的關系是人是主體, 技術的發明與研制都是為了滿足人類的目的, 更好地為人類服務, 技術的價值也以對人類的作用為評價標準, 一切為了人類的福祉。人工智能系統需要和人類的尊嚴、自由等價值觀相一致, 同時人工智能技術需要服務于公共利益, 超級人工智能系統的研究和運用是為了服務于為全人類所廣泛認可和普遍接受的基本的倫理觀念。因此, 人工智能技術應該保證人的主體地位, 以人為核心來發展技術, 而不是以技術為核心來限制人。應明確人工智能研究的邊界和紅線, 不能以傷害人類為目的, 人工智能發展應以不損害人類整體利益為邊界, 保障人在人工智能技術使用中的能動性, 使人類能夠體驗到人工智能給人類帶來的便捷而不是苦惱。保障人的主體性地位, 源于人工智能體現人類價值, 提升人的價值。2019年4月, 歐盟出臺了《可信賴人工智能倫理準則》, 提出在人類基本原則得到保障的基礎上, 實現可信賴的人工智能, 其中包括算法可解釋、程序透明等內容。歐盟頒布的《可信賴的人工智能設計》和2017年美國電氣和電子工程師協會 (IEEE) 發布的《合乎倫理的設計:將人類福祉與人工智能和自主系統優先考慮的愿景》報告, 都呼吁將人類規范和道德價值觀嵌入人工智能系統中, 保障人的主體性地位, 在人工智能技術背景下, 人類的決策地位優先。人工智能的發展應以確保人的主體性地位為前提。

                          (三) 以維護社會公正與穩定為目標

                          美國職業工程師協會 (NSPE) 、美國電氣和電子工程師協會 (IEEE) 、美國機械工程師協會 (ASME) 和美國伍斯特理工學院 (WPI) 等協會相繼出臺了人工智能倫理準則, 關注安全、人類福利等與人類利益密切相關的內容, 要求將人類的倫理準則通過形式化的模式嵌入到人工智能技術當中, 成為人工智能技術發展的重要遵循原則之一。人工智能的運用應促進社會公平正義的落實。避免人工智能設計的不公平、使用的不公平、算法歧視等社會問題, 避免人工智能對于人類社會穩定的沖擊, 要充分認識人工智能技術對社會各個領域所帶來的沖擊, 做好應對準備。在經濟領域, 規范人工智能技術使用的要求, 對于使用人工智能破壞正常經濟秩序的行為要加大打擊力度, 通過稅收等再分配途徑縮小物質財富差距;在文化領域, 通過技術限制減少人們沉迷和上癮的行為, 如限定每日登陸總時長;在社會領域, 對于人工智能技術帶來的失業問題要做好統計工作, 及時撥發失業補助, 組織再就業技能學習班等, 使失業的人口得到基本的生活保障, 保持社會總體穩定。此外, 人工智能給傳統行業帶來沖擊造成失業的同時, 也會創造出新的工作崗位, 要積極引導未就業人群和失業人群在新的工作崗位就業;在安全領域, 不斷革新技術, 明確責任劃分, 減少傷亡情況, 對于已經發生的傷亡, 及時做好賠付和善后工作。日本人工智能學會的倫理委員會研究匯總了一份研究人員應該遵守的指標草案, 提出要有益和平和防止惡意使用人工智能技術等要求。人工智能從設計之初關注公平與正義問題, “人工智能設計應該關注機會平等, 人工智能設計也要追求結果的公平和正義”[14]。人工智能的發展應該關注社會公平, 維護社會穩定。

                          綜上所述, 人工智能發展迅速, 是社會發展的重要推動力量, 也會帶來人類安全、隱私、數據所有權等風險。因此, 在不斷推進人工智能技術進步的同時, 必須關注人工智能的倫理風險, 及時規治人工智能的倫理風險, 才能避免人工智能的負面效應, 規范與約束人工智能的發展, 應該建立人工智能監管機構, 制定人工智能的相關法律、法規, 重構人工智能責任體系以及建立人工智能倫理規則等才能規避人工智能風險, 人工智能發展需要“道德嵌入”, 把人類“善”的道德嵌入到設計的人工智能算法、程序中, 用“科技向善”規范人工智能發展, 在設計之初為人工智能注入一顆“良芯”。

                          參考文獻

                          [1][英]盧西亞諾·弗洛里迪.第四次革命---人工智能如何重塑人類現實[M].王文革, 譯.杭州:浙江人民出版社, 2016:5.
                          [2][德]烏爾里希·貝克, [德]約翰內斯·威爾姆斯.自由與資本主義[M].路國林, 譯.杭州:浙江人民出版社, 2001:127.
                          [3][美]馬爾庫塞.單向度的人[M].李繼, 譯.上海:上海譯文出版社, 1989:126.
                          [4] Ellul J.The Technological System[M].New York:Contnuum, 1980:95.
                          [5]王云, 劉亞平.人工智能技術發展中的生態倫理困境和啟示[J].長沙理工大學學報 (社會科學版) , 2018 (4) :7-16.
                          [6] Yampolskiy R V.Artificial Intelligence Safety and Cybersecurity:a timeline of AI failures[J].Computer Science, 2016 (10) :1-12.
                          [7] Neyland D, Mllers N.AlgorithmicIF…THEN Rules and the Conditions and Consequencesof Power[J].Information, communication&Society, 2017, 20 (1) :1-18.
                          [8] Miller T, Howe P, Sonenberg L.Explainable AI:Beware of Inmates Running the Asylum Or:How I Learnt to Stop Worrying and Love the Social and Behavioural Sciences[J].2017.
                          [9] Tene O, Polonetsky J.Big Data for All:Privacy and User Control in the Age of Analytics[J].Northwestern Journal of Technology and Intellectual Property, 2013 (5) :239-273.
                          [10] Taylor L, Floridi L, Bart V D S.GroupPrivacy:New Challenges of Data Technologies[M].Dordrecht:Springer, 2017:13-36.
                          [11]楊懷中, 王遠旭.工程活動的自然倫理訴求與工程師的自然倫理責任[J].自然辯證法研究, 2017 (5) :123-127.
                          [12] Tzafestas S G.Roboethics[M].Switzerland:Springer International Publishing, 2016:66.
                          [13]王廣贊, 易顯飛.人工智能研究的三大流派:比較與啟示[J].長沙理工大學學報 (社會科學版) , 2018 (4) :1-6.
                          [14]閆坤如.人工智能設計的風險及其規避[J].理論探索, 2017 (5) :22-26.

                        聯系我們
                        • 寫作QQ:79211969
                        • 發表QQ:78303642
                        • 服務電話:18930620780
                        • 售后電話:18930493766
                        • 郵箱:lunwen021@163.com
                        范文范例
                        網站地圖 | 網站介紹 | 聯系我們 | 服務承諾| 服務報價| 論文要求 | 期刊發表 | 服務流程
                        快三全天精准计划