12月4日-5日,由清華大學(xué)人工智能國際治理研究院主辦的2021人工智能合作與治理國際論壇在清華大學(xué)舉行。在以“人工智能技術(shù)前沿與治理”為主題的論壇中,中國工程院院士、北京大學(xué)信息科學(xué)技術(shù)學(xué)院院長、鵬城實(shí)驗(yàn)室主任高文分享了人工智能2.0的戰(zhàn)略、戰(zhàn)術(shù)和安全問題。
高文介紹,中國人工智能發(fā)展規(guī)劃是從2015年7月份開始,2017年7月發(fā)布的《中國人工智能發(fā)展規(guī)劃》就是人工智能2.0正式的說法,提出2020年達(dá)到與世界先進(jìn)水平同步,2025年部分領(lǐng)先,2030年總體領(lǐng)先。
他在演講中分享到,通過和歐洲、美國等國家在人才數(shù)量、研究水平、開發(fā)能力、應(yīng)用場景、數(shù)據(jù)、硬件等方面的比較分析,中國人工智能發(fā)展的水平,存在“四長四短”。即在人工智能發(fā)展政策支持、海量數(shù)據(jù)資源、具備豐富的應(yīng)用場景,以及青年人才數(shù)量和成長速度等方面具有優(yōu)勢;在人工智能的基礎(chǔ)理論和算法、高端芯片和關(guān)鍵器件、開源開放平臺(tái),以及高水平人才數(shù)量等方面則存在短板。

“在短的方面傾注一些資源,盡快補(bǔ)齊短板,使得長板更長,短板不短,發(fā)展人工智能是這樣的戰(zhàn)略?!备呶姆Q。
具體戰(zhàn)術(shù)應(yīng)該怎么做?高文表示,人工智能2.0需要重點(diǎn)考慮兩個(gè)方面。一是做可解釋的機(jī)器學(xué)習(xí)+推理,在小數(shù)據(jù)、可解釋模型的研究主線上,解決人工智能的問題。第二個(gè)技術(shù)路線是靠深度神經(jīng)網(wǎng)絡(luò),利用仿生系統(tǒng)+AI大算力解決問題。
高文認(rèn)為,第二條路線會(huì)是人工智能現(xiàn)階段發(fā)展的主要推動(dòng)方式,而靠大數(shù)據(jù)、大算力來做人工智能,關(guān)鍵需要有基礎(chǔ)設(shè)施平臺(tái),需要有非常大的算力。
據(jù)了解,高文在2018年主導(dǎo)成立的鵬城實(shí)驗(yàn)室在去年就推出了算力高達(dá)1000P FLOPS(每秒計(jì)算速度達(dá)10的18次方)的鵬城云腦2,做到節(jié)點(diǎn)之間延遲低、帶寬非常寬,從而使得機(jī)器訓(xùn)練的時(shí)候,大數(shù)據(jù)很容易傳輸,效率可以發(fā)揮到極致。鵬城云腦2在連續(xù)三屆世界超算打榜中吞吐性能方面絕對領(lǐng)先,在世界人工智能算力500排行中也連續(xù)兩次獲得第一。
高文介紹稱,用這臺(tái)機(jī)器已經(jīng)訓(xùn)練了若干個(gè)大模型,比如基于自然語言處理的大模型鵬程·盤古,基于計(jì)算機(jī)視覺、跨模態(tài)的大模型鵬程·大圣,基于多對多模式的模型鵬程·通言,以及面向生物制藥、基因制藥的大模型鵬程·神農(nóng)等。他表示,鵬程系列模型基本都支持開源開放,通過啟智開源開放平臺(tái)提供開源開放的程序,可以下載進(jìn)行使用。
但由此也會(huì)帶來新的問題。“如果基于類腦和大數(shù)據(jù)、大算力的技術(shù)路線,很顯然有一個(gè)坎兒必須要邁過去,就是數(shù)據(jù)安全和隱私問題?!备呶谋硎荆@需要從兩個(gè)層面考慮,數(shù)據(jù)和隱私安全問題、人工智能倫理問題。
對于數(shù)據(jù)隱私安全問題,高文認(rèn)為,人工智能應(yīng)用離不開數(shù)據(jù),在隱私保護(hù)和數(shù)據(jù)挖掘之間,需要找到比較好的平衡點(diǎn)。
這個(gè)平衡點(diǎn)在哪里?高文分享了一種隱私和數(shù)據(jù)安全保護(hù)的手段——把數(shù)據(jù)模型和應(yīng)用分成三層,每層用接口隔離開(數(shù)據(jù)到模型之間通過數(shù)據(jù)程序接口隔離,模型到應(yīng)用通過應(yīng)用程序接口隔離),這樣就有可能去規(guī)范,對數(shù)據(jù)進(jìn)行保護(hù)。
比如在數(shù)據(jù)和模型之間,鵬城實(shí)驗(yàn)室設(shè)計(jì)的防水堡技術(shù)就可以實(shí)現(xiàn)對數(shù)據(jù)只分享價(jià)值,而不分享數(shù)據(jù)的可信計(jì)算環(huán)境,做到數(shù)據(jù)可用不可見,使得數(shù)據(jù)擁有方或數(shù)據(jù)本身得到很好的保護(hù)。
關(guān)于倫理問題,高文介紹了其牽頭的研發(fā)成果,認(rèn)為強(qiáng)人工智能安全風(fēng)險(xiǎn)的來源主要有三個(gè):一是模型的不可解釋性,二是算法和硬件的不可靠性,三是自主意識(shí)的不可控性。強(qiáng)人工智能進(jìn)化到一定程度就有自主意識(shí),這些可能是不可控的,也會(huì)帶來一些安全風(fēng)險(xiǎn)。
高文就此也提出了預(yù)防和解決的辦法。一是要完善理論基礎(chǔ)驗(yàn)證,實(shí)現(xiàn)模型可解釋性,可解釋了就知道哪里有風(fēng)險(xiǎn),怎么樣預(yù)防;其次要對人工智能底層價(jià)值取向要嚴(yán)格進(jìn)行控制,預(yù)防人為造成的人工智能安全問題,對人工智能進(jìn)行動(dòng)機(jī)選擇,為人工智能獲取人類價(jià)值觀提供一些支撐。
他還表示,對于人工智能倫理問題的探索才剛剛起步,只有廣泛的國際合作才可能更好的應(yīng)對風(fēng)險(xiǎn)。同時(shí),教育也是重要環(huán)節(jié),培養(yǎng)對這個(gè)領(lǐng)域有更多見解的人才,才有可能把這些問題解決好。來源:搜狐科技
金大立免費(fèi)服務(wù)熱線
地址:成都彭州市工業(yè)開發(fā)區(qū)天彭鎮(zhèn)旌旗西路419號(hào)二維碼
