ITI呼吁政府靈活監(jiān)管AI,避免激進(jìn)立法
來源:原創(chuàng) 時(shí)間:2017-11-11 瀏覽:0 次
信息技術(shù)產(chǎn)業(yè)委員會(huì)(ITI)是一個(gè)以華盛頓特區(qū)為根據(jù)地的游說組織, 它的客戶有谷歌、亞馬遜和微軟。ITI目前要求各國政府再三考慮下制定規(guī)范人工智能的法律。
但是,伴隨著越來越多的安全、道德和社會(huì)正義問題,這真的是一個(gè)好主意嗎?
周二,ITI發(fā)布了“人工智能(AI)政策原則”。在這個(gè)原則里,游說組織略述了“行業(yè),政府和其他可以合作的具體領(lǐng)域,以及公私合作的具體機(jī)遇”。
在新的文件中,ITI承認(rèn)技術(shù)部門對(duì)促進(jìn)AI可靠的開發(fā)和使用有需求,同時(shí)呼吁各國政府支持、鼓勵(lì)和資助AI的研究工作。但是,至于讓政府了解一下ITI客戶的源代碼,或者制定法律來控制AI的安全發(fā)展和道德發(fā)展,就不那么令人興奮了。
“我們還鼓勵(lì)各國政府在采用新的法律、法規(guī)或稅收之前, 評(píng)估下現(xiàn)在的政策工具,并且謹(jǐn)慎使用。因?yàn)檫@些政策可能會(huì)在無意中過分阻礙AI的可靠開發(fā)和使用”,ITI在新的AI原則列表中指出。
“這延伸到了保護(hù)源代碼、專有算法和其他知識(shí)產(chǎn)權(quán)的基本性質(zhì)。如果不這樣做,可能會(huì)帶來重大的網(wǎng)絡(luò)風(fēng)險(xiǎn)。”
鑒于以上規(guī)定, ITI也在探尋如何“鼓勵(lì)包括美國政府的所有政府制定政策、標(biāo)準(zhǔn)和法規(guī)來促進(jìn)科技行業(yè)的創(chuàng)新和增長。”作為一些科技行業(yè)中究極兵器的代表,亞馬遜、Facebook、谷歌、IBM和微軟同時(shí)也誓將成為 “全球科技行業(yè)的喉舌”以及“即將到來的AI世界的催化劑”。
ITI的文件適時(shí)指出,AI開始變得非常重要,它的影響力迅速增長,不僅影響了我們生活(無論是照片分類應(yīng)用,還是某種發(fā)明新藥物的算法),還影響了全球經(jīng)濟(jì)(ITI估計(jì),到2025年,AI將會(huì)為全球經(jīng)濟(jì)增加至少7萬億美元)。
但是,它也提及了最近監(jiān)督和監(jiān)管的呼聲。正如Bloomberg記者Gerrit De Vynck和Ben Brody寫道的:俄羅斯資助的賬戶利用社交網(wǎng)絡(luò)傳播不和,并試圖影響2016年美國總統(tǒng)大選的結(jié)果。隨著這個(gè)新聞的傳播,大型科技公司及其軟件受到了越來越多的關(guān)注。Facebook、推特和谷歌設(shè)計(jì)的算法也遭到批評(píng),他們通過給人們提供人們已經(jīng)同意的新聞?lì)愋蛠碓黾诱蝺蓸O分化,制造所謂的“過濾氣泡”。
關(guān)注并不止于此。開發(fā)者開始遭受批評(píng),因?yàn)樗麄冊(cè)试S他們的AI系統(tǒng)擁有人類的偏見和成見(比如,Princeton最近的一項(xiàng)研究表明,一些AI系統(tǒng)會(huì)性別歧視和種族歧視)。此外,也不能確定AI將如何導(dǎo)致技術(shù)失業(yè)、自動(dòng)化戰(zhàn)爭以及黑客入侵。而且,目前還沒有達(dá)成共識(shí),是否要給這些系統(tǒng)注入具體倫理或道德規(guī)范。
就像Elon Musk、Stephen Hawking以及其他思想家指出的,AI出現(xiàn)的嚴(yán)重問題具有令人恐懼的潛力。比如,最近google旗下的DeepMind在AI方面取得突破,這表明,一個(gè)飛速開始的事件,比如人工智能發(fā)展成為一種超級(jí)智能的形式,可能會(huì)相對(duì)迅速且沒有預(yù)兆的帶來災(zāi)難性的(可能存在的)威脅。
不出乎意料的,由于這些事情正在發(fā)生,一些憂心忡忡的觀察者呼吁政府介入。
Musk已經(jīng)警告過,政府需要“在為時(shí)已晚之前”實(shí)施條規(guī),而且我們只有在事情失控之后才會(huì)采取行動(dòng)。兩年前,白宮實(shí)施了一個(gè)初步的AI戰(zhàn)略,稱AI需要符合道德標(biāo)準(zhǔn),但是必須是擴(kuò)大,而不是取代人類,并且每一個(gè)人都應(yīng)該有機(jī)會(huì)參與到這個(gè)系統(tǒng)的開發(fā)。
但是關(guān)于正式法規(guī),白宮表示為時(shí)尚早。正如美國前總統(tǒng)Obama去年對(duì)Wired所說的,“大多數(shù)人現(xiàn)在還沒有花很多時(shí)間擔(dān)心奇點(diǎn),他們?cè)趽?dān)心著‘好吧,我的工作會(huì)被機(jī)器取代么?’”
“沒有監(jiān)管和國家監(jiān)管之間的中間道路,是讓行業(yè)自我監(jiān)管,這是ITI的方法。但是這也離理想的方式很遠(yuǎn):這是讓狐貍守衛(wèi)雞舍。”
加州理工大學(xué)(California Polytechnic State University)倫理學(xué)+新興科學(xué)集團(tuán)的董事Patrick Lin表示,規(guī)范新技術(shù)一直是一種微妙的平衡行為。
“如果你太早設(shè)定了法規(guī),那么你可能押注于錯(cuò)誤的標(biāo)準(zhǔn)。重要的是,這對(duì)商業(yè)化來說是很糟糕的,”Lin告訴Gizmodo,“設(shè)定太多或者不必要的法規(guī)也存在同樣的問題;它們會(huì)為創(chuàng)新制造障礙。但是在緊要關(guān)頭,商業(yè)化并不是唯一的價(jià)值;公共安全是另一個(gè)重要的價(jià)值。
因此,如果對(duì)自己駕駛的汽車,犯罪判決和銀行貸款決定等人工智能系統(tǒng)產(chǎn)生嚴(yán)重影響的技術(shù)幾乎或根本沒有規(guī)定,那么這將對(duì)社會(huì)造成不利影響。不論是本能的還是條件反射的違反規(guī)則,都是錯(cuò)誤的。每一項(xiàng)技術(shù)都是不同的,需要根據(jù)自身的優(yōu)點(diǎn)慎重考慮。”
Lin說到,這種談話目前發(fā)生在自動(dòng)駕駛汽車方面,一個(gè)陣營爭辯道,監(jiān)管標(biāo)準(zhǔn)將把制造商放在關(guān)于安全關(guān)鍵職能的同一頁面上(這將保護(hù)該行業(yè)免受某些不利因素的影響),另一個(gè)陣營表示,我們還不夠了解開始建立標(biāo)準(zhǔn)。
“沒有監(jiān)管和國家監(jiān)管之間的中間道路,是讓行業(yè)自我監(jiān)管,這是ITI的辦法。”Lin說到,“但是這也離理想的方式很遠(yuǎn):這是讓狐貍守衛(wèi)雞舍。如果公司的排名不高,就沒有辦法強(qiáng)制執(zhí)行自我管理;甚至透明度可能會(huì)低于政府監(jiān)管機(jī)構(gòu);還有許多其他的問題。”
目前,美國還沒有一個(gè)專門負(fù)責(zé)監(jiān)管或監(jiān)控AI的聯(lián)邦機(jī)構(gòu),可能還需要一段時(shí)間才能看到類似的情況(如果有的話)。與此同時(shí),政府內(nèi)部和外部的各種團(tuán)體都將參與監(jiān)控AI的發(fā)展。