“人工智能開發(fā)與隱私保護(hù)存在緊張關(guān)系;在影視制作、社交、娛樂、教育、電商等領(lǐng)域具有很大正向應(yīng)用潛能的深度合成也可能被濫用來進(jìn)行違法活動(dòng)?!?/p>
近日,騰訊研究院高級(jí)研究員曹建峰在首屆清華大學(xué)人工智能合作與治理國際論壇分享對(duì)算法偏差和深度合成的看法。他建議業(yè)界探索開發(fā)隱私保護(hù)型的AI技術(shù)方法,在隱私保護(hù)與數(shù)據(jù)利用之間實(shí)現(xiàn)更好平衡。
在清華大學(xué)人工智能合作與治理國際論壇 “人工智能與數(shù)據(jù)安全”分論壇上,相關(guān)學(xué)者與產(chǎn)業(yè)屆人士聚焦討論數(shù)據(jù)與人工智能的近期與遠(yuǎn)期風(fēng)險(xiǎn)、安全挑戰(zhàn)及對(duì)策。
分論壇由中科院自動(dòng)化所中英人工智能倫理與治理中心主任曾毅主持。劍橋大學(xué)智能未來研究中心研究員丹尼特·加爾(Danit Gal)、荷蘭埃因霍溫科技大學(xué)教授文森特·穆勒(Vincent Muller)、北京師范大學(xué)網(wǎng)絡(luò)法治國際中心執(zhí)行主任吳沈括等人參與交流。
與會(huì)專家認(rèn)為,人工智能和數(shù)據(jù)安全的治理需要世界各國和組織聯(lián)合起來,制定更加明晰有效的法律法規(guī),構(gòu)建統(tǒng)一的人工智能模型與系統(tǒng)的安全評(píng)估準(zhǔn)則和標(biāo)準(zhǔn),在全球范圍內(nèi)用更加開放協(xié)同的方式進(jìn)行科學(xué)研究和技術(shù)交流,推動(dòng)人工智能技術(shù)在安全的基礎(chǔ)上更快速的落地,構(gòu)建更安全、更美好的世界。
以下是各位人工智能學(xué)者與產(chǎn)業(yè)界人士的發(fā)言集錦:
丹尼特·加爾:AI的內(nèi)部風(fēng)險(xiǎn)與外部防御挑戰(zhàn)
劍橋大學(xué)智能未來研究中心研究員丹尼特·加爾(Danit Gal)重點(diǎn)總結(jié)了人工智能安全相關(guān)的內(nèi)部風(fēng)險(xiǎn)與外部防御的近期挑戰(zhàn),并對(duì)各國數(shù)據(jù)規(guī)制應(yīng)當(dāng)形成全球協(xié)作提出建議。
她在主旨演講中區(qū)分了人工智能安全的兩大重要概念(Safety和Security)的概念。Safety更偏向內(nèi)部,針對(duì)的是一些無意傷害的預(yù)防措施,從系統(tǒng)中保護(hù)環(huán)境。Security更傾向于對(duì)外部攻擊的防御,聚焦在那些有意對(duì)個(gè)人、組織和財(cái)產(chǎn)施加傷害的行為,從環(huán)境中保護(hù)系統(tǒng)。
她認(rèn)為,科技影響著我們所有人,它的安全和保障也是如此。然而,我們應(yīng)對(duì)這些影響的能力遠(yuǎn)遠(yuǎn)落后于開發(fā)和使用。人工智能和數(shù)據(jù)流進(jìn)一步復(fù)雜化了這一動(dòng)態(tài),引入并連接了新的機(jī)會(huì)和新的漏洞。丹尼特·加爾建議,應(yīng)加強(qiáng)交流、推動(dòng)合作,以減少脆弱性,在全球范圍內(nèi)倡導(dǎo)并激勵(lì)數(shù)據(jù)安全治理工作。
文森特·穆勒:通用AI的長遠(yuǎn)風(fēng)險(xiǎn)極不確定
荷蘭埃因霍溫科技大學(xué)教授文森特·穆勒(Vincent Muller)在演講中指出通用人工智能和超級(jí)智能的長遠(yuǎn)風(fēng)險(xiǎn)具有極大不確定性。
他分成兩步介紹了超級(jí)智能和通用人工智能的長期風(fēng)險(xiǎn),即從超級(jí)智能到技術(shù)奇點(diǎn),再從技術(shù)奇點(diǎn)到生存風(fēng)險(xiǎn)。超級(jí)智能指的是在許多非常普遍的認(rèn)知領(lǐng)域遠(yuǎn)遠(yuǎn)超過當(dāng)今人類最佳智力的人工智能。
從超級(jí)智能到技術(shù)奇點(diǎn),他強(qiáng)調(diào)了三個(gè)前提假設(shè),分別是我們擁有更快的速度和更多的數(shù)據(jù),不需要認(rèn)知科學(xué),以及應(yīng)用十分緊急。從技術(shù)奇點(diǎn)到生存風(fēng)險(xiǎn),他強(qiáng)調(diào)了兩點(diǎn)前提假設(shè),理性主體決策理論適用于人工智能,以及智能和最終目標(biāo)的正交性。
羅曼·揚(yáng)波爾斯基:超級(jí)智能意味著超級(jí)控制
美國路易斯維爾大學(xué)教授羅曼·揚(yáng)波爾斯基(Roman Yampolskiy)談到人工智能、安全和防御的未來,并表達(dá)了對(duì)于人工智能的擔(dān)憂。
他在主旨演講中表示,當(dāng)前超級(jí)智能正在來臨,超級(jí)智能意味著超級(jí)聰明、超級(jí)復(fù)雜、超級(jí)快速、超級(jí)控制、超級(jí)病毒。
他談到關(guān)于人工智能的擔(dān)心,重點(diǎn)介紹了最近的幾項(xiàng)研究工作,包括通往危險(xiǎn)的人工智能的路徑分類學(xué)、人工智能安全不可能的結(jié)果、緩解負(fù)面影響、人工智能的限制問題等。
他認(rèn)為,人工智能失敗的時(shí)間軸呈指數(shù)趨勢,人工智能失敗的頻率和嚴(yán)重程度都會(huì)增加,這與人工智能的能力成比例。
曹建峰:AI開發(fā)與隱私保護(hù)存在緊張關(guān)系
騰訊研究院高級(jí)研究員曹建峰在會(huì)上分享了對(duì)算法偏差和深度合成(deep synthesis)的看法,并提出了解決問題的建議。
他認(rèn)為,當(dāng)前人工智能系統(tǒng)必須使用大量數(shù)據(jù)訓(xùn)練算法。如果訓(xùn)練數(shù)據(jù)是有偏見的或不完整的,人工智能系統(tǒng)將會(huì)顯示有偏見的行為。因此,人工智能開發(fā)應(yīng)該對(duì)數(shù)據(jù)質(zhì)量有合理的控制。但數(shù)據(jù)并不是偏見的唯一來源,解決算法偏見還需要AI從業(yè)人員秉持倫理價(jià)值。此外,人工智能開發(fā)與隱私保護(hù)存在緊張關(guān)系;在影視制作、社交、娛樂、教育、電商等領(lǐng)域具有很大正向應(yīng)用潛能的深度合成也可能被濫用來進(jìn)行違法活動(dòng)。
為解決這些問題,曹建峰給出了四點(diǎn)建議,人工智能與數(shù)據(jù)產(chǎn)品開發(fā)需要遵循“通過設(shè)計(jì)的倫理”(ethics by design)理念,將公平、安全等倫理價(jià)值融入產(chǎn)品設(shè)計(jì)全周期,并有防止濫用的保障措施;二是在企業(yè)、國家乃至國際層面建立負(fù)責(zé)任的人工智能開發(fā)和數(shù)據(jù)使用的道德準(zhǔn)則;三是在國際社會(huì)分享最佳實(shí)踐經(jīng)驗(yàn);四是業(yè)界需要探索開發(fā)隱私保護(hù)型的AI技術(shù)方法,如聯(lián)邦學(xué)習(xí)等,來在隱私保護(hù)與數(shù)據(jù)利用之間實(shí)現(xiàn)更好平衡。
吳沈括:國際社會(huì)需面對(duì)數(shù)據(jù)違法行為帶來的法律漏洞
北京師范大學(xué)網(wǎng)絡(luò)法治國際中心執(zhí)行主任吳沈括在會(huì)上表示,國際社會(huì)需要面對(duì)新技術(shù)環(huán)境下數(shù)據(jù)違法行為帶來的新挑戰(zhàn)和法律漏洞。
首先,由于不同地區(qū)、國家法律法規(guī)的缺失和差異,普遍導(dǎo)致對(duì)新型數(shù)據(jù)違法行為司法規(guī)制不足。其次,各國現(xiàn)行法律制度框架尚不能充分保障跨境證據(jù)收集與交換的快速高效。最后,在網(wǎng)絡(luò)匿名的背景下,一些國家的監(jiān)測、預(yù)警和應(yīng)急機(jī)制越來越難以有效應(yīng)對(duì)脆弱性問題的快速增長。因此,在全球化深入發(fā)展的新時(shí)代,數(shù)據(jù)違法行為的跨國衍變要求更高水平的國際合作治理,建立信任世界。
鄧亞峰:不法分子利用AI會(huì)帶來倫理問題
奇虎 360 人工智能研究院院長鄧亞峰在會(huì)上總結(jié)了人工智能在數(shù)據(jù)安全方面存在的潛在威脅。
首先,由于人工智能是快速出現(xiàn)的新應(yīng)用,人工智能應(yīng)用生產(chǎn)和部署的各個(gè)環(huán)節(jié)都暴露出了一系列的安全風(fēng)險(xiǎn)。其次,人工智能和大數(shù)據(jù)應(yīng)用往往與大量隱私數(shù)據(jù)關(guān)聯(lián),這些數(shù)據(jù)往往需要被送到云端進(jìn)行分析和計(jì)算,造成了比原來更嚴(yán)重的數(shù)據(jù)泄露和安全風(fēng)險(xiǎn)。第三,雖然從技術(shù)角度看,人工智能體很長一段時(shí)間都無法擁有真正的自我意識(shí),但是,我們無法排除一些不法分子會(huì)對(duì)人工智能加以利用,而這會(huì)帶來大量的社會(huì)倫理問題。最后,由于人工智能在短期內(nèi)會(huì)造成一部分從事簡單重復(fù)性工作的人類失業(yè),這會(huì)引起一定的恐慌和排斥。此外,人工智能也因?yàn)榧夹g(shù)的不成熟,會(huì)被認(rèn)為在識(shí)別結(jié)果上存在一定的歧視。
他認(rèn)為,人工智能和數(shù)據(jù)安全是全世界都統(tǒng)一面臨的問題,需要全世界的組織和個(gè)人聯(lián)合起來一起行動(dòng)。
(澎湃新聞?dòng)浾?張唯)
免責(zé)聲明:本網(wǎng)轉(zhuǎn)載自其它媒體的文章,目的在于弘揚(yáng)科技創(chuàng)新精神,傳遞更多科技創(chuàng)新信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),在此我們謹(jǐn)向原作者和原媒體致以崇高敬意。如果您認(rèn)為本站文章侵犯了您的版權(quán),請(qǐng)與我們聯(lián)系,我們將第一時(shí)間刪除。