2020年國(guó)家公務(wù)員考試申論熱點(diǎn):為人工智能注入更多安全基因
【背景鏈接】
大數(shù)據(jù)殺熟、技術(shù)黑箱、算法偏見(jiàn)等專業(yè)名詞,正在隨著人工智能的普及引來(lái)人們的關(guān)注。隨著人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,技術(shù)倫理問(wèn)題開(kāi)始從幕后走到臺(tái)前,成為人工智能研究發(fā)展的重要議題。
2019年8月發(fā)布的《人工智能安全與法治導(dǎo)則(2019)》,從算法安全、數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)、社會(huì)就業(yè)和法律責(zé)任等五大方面,對(duì)人工智能發(fā)展的風(fēng)險(xiǎn)提出安全與法治應(yīng)對(duì)策略。這是人工智能行業(yè)對(duì)于社會(huì)訴求的一種積極回應(yīng),也是行業(yè)對(duì)于自身技術(shù)發(fā)展安全性的一次深刻思考。
【公考角度解讀】
[提出觀點(diǎn)]
安全性作為其技術(shù)發(fā)展的考量標(biāo)準(zhǔn),為人工智能注入更多的人文與安全基因,才能推動(dòng)人工智能向安全、可靠、可控的方向發(fā)展。
[綜合分析]
放眼當(dāng)下,借助人工智能,企業(yè)賦予每個(gè)用戶的偏好和行為以大量數(shù)據(jù)標(biāo)簽,摸透用戶甚至超過(guò)用戶對(duì)自己的了解;在社交媒體中,人工智能將觀點(diǎn)相近的內(nèi)容反復(fù)推薦給用戶,逐步加劇偏見(jiàn)強(qiáng)化;通過(guò)對(duì)海量數(shù)據(jù)的挖掘,不同的消費(fèi)者購(gòu)買同一件商品的價(jià)格不同,有被“殺熟”之嫌……人工智能技術(shù)的商業(yè)化,帶來(lái)了技術(shù)濫用、信息安全等問(wèn)題??梢哉f(shuō),隨著人工智能技術(shù)的飛躍,“智慧大爆發(fā)”帶來(lái)的工具倫理性問(wèn)題一直未被解決,進(jìn)而造成個(gè)人隱私泄露、法律倫理困境。如何確保安全、合理地使用人工智能,亟待整個(gè)社會(huì)求解。
智能時(shí)代的大幕正在拉開(kāi),“人工智能+教育”“人工智能+醫(yī)療”“人工智能+媒體”……不斷打破著各個(gè)行業(yè)的發(fā)展瓶頸,重塑著不同產(chǎn)業(yè)的生產(chǎn)模式,更是給人類社會(huì)的發(fā)展拓展了更多的智慧空間。也許,技術(shù)的不斷革新可以破解現(xiàn)存的“技術(shù)黑箱”,但人工智能的發(fā)展必須始終堅(jiān)持的是,把安全性作為其技術(shù)發(fā)展的考量標(biāo)準(zhǔn),把握商業(yè)價(jià)值和人文價(jià)值的統(tǒng)一,把握市場(chǎng)倫理和技術(shù)倫理的統(tǒng)一。為人工智能注入更多的人文與安全基因,才能推動(dòng)人工智能向安全、可靠、可控的方向發(fā)展。
[對(duì)策措施]
實(shí)現(xiàn)技術(shù)可用、可靠、可知、可控,首先要在人工智能的商業(yè)考量中注入更多的人文關(guān)懷。必須明確的是,利用技術(shù)的主體和收益方應(yīng)是人本身。發(fā)揮技術(shù)優(yōu)勢(shì)去彌補(bǔ)行業(yè)短板,理應(yīng)明確人的主體地位,讓人工智能在商業(yè)價(jià)值與人文價(jià)值中求得平衡。
同時(shí),更要讓人工智能處在一個(gè)公平、安全的市場(chǎng)倫理下發(fā)展。技術(shù)應(yīng)當(dāng)存在倫理邊界,技術(shù)發(fā)展和市場(chǎng)倫理的底線就是公平和安全。一方面,新的產(chǎn)品和技術(shù)應(yīng)當(dāng)經(jīng)過(guò)嚴(yán)格的測(cè)試和驗(yàn)證,確保其性能達(dá)到合理預(yù)期;另一方面新技術(shù)的發(fā)展應(yīng)確保數(shù)字網(wǎng)絡(luò)、人身財(cái)產(chǎn)以及社會(huì)發(fā)展的安全。
資料來(lái)源:
人民日?qǐng)?bào):為人工智能注入更多安全基因