ITI呼吁政府靈活監(jiān)管AI,避免激進立法
來源:原創(chuàng) 時間:2017-11-11 瀏覽:0 次
信息技術產(chǎn)業(yè)委員會(ITI)是一個以華盛頓特區(qū)為根據(jù)地的游說組織, 它的客戶有谷歌、亞馬遜和微軟。ITI目前要求各國政府再三考慮下制定規(guī)范人工智能的法律。
但是,伴隨著越來越多的安全、道德和社會正義問題,這真的是一個好主意嗎?
周二,ITI發(fā)布了“人工智能(AI)政策原則”。在這個原則里,游說組織略述了“行業(yè),政府和其他可以合作的具體領域,以及公私合作的具體機遇”。
在新的文件中,ITI承認技術部門對促進AI可靠的開發(fā)和使用有需求,同時呼吁各國政府支持、鼓勵和資助AI的研究工作。但是,至于讓政府了解一下ITI客戶的源代碼,或者制定法律來控制AI的安全發(fā)展和道德發(fā)展,就不那么令人興奮了。

“我們還鼓勵各國政府在采用新的法律、法規(guī)或稅收之前, 評估下現(xiàn)在的政策工具,并且謹慎使用。因為這些政策可能會在無意中過分阻礙AI的可靠開發(fā)和使用”,ITI在新的AI原則列表中指出。
“這延伸到了保護源代碼、專有算法和其他知識產(chǎn)權的基本性質。如果不這樣做,可能會帶來重大的網(wǎng)絡風險。”
鑒于以上規(guī)定, ITI也在探尋如何“鼓勵包括美國政府的所有政府制定政策、標準和法規(guī)來促進科技行業(yè)的創(chuàng)新和增長。”作為一些科技行業(yè)中究極兵器的代表,亞馬遜、Facebook、谷歌、IBM和微軟同時也誓將成為 “全球科技行業(yè)的喉舌”以及“即將到來的AI世界的催化劑”。
ITI的文件適時指出,AI開始變得非常重要,它的影響力迅速增長,不僅影響了我們生活(無論是照片分類應用,還是某種發(fā)明新藥物的算法),還影響了全球經(jīng)濟(ITI估計,到2025年,AI將會為全球經(jīng)濟增加至少7萬億美元)。
但是,它也提及了最近監(jiān)督和監(jiān)管的呼聲。正如Bloomberg記者Gerrit De Vynck和Ben Brody寫道的:俄羅斯資助的賬戶利用社交網(wǎng)絡傳播不和,并試圖影響2016年美國總統(tǒng)大選的結果。隨著這個新聞的傳播,大型科技公司及其軟件受到了越來越多的關注。Facebook、推特和谷歌設計的算法也遭到批評,他們通過給人們提供人們已經(jīng)同意的新聞類型來增加政治兩極分化,制造所謂的“過濾氣泡”。
關注并不止于此。開發(fā)者開始遭受批評,因為他們允許他們的AI系統(tǒng)擁有人類的偏見和成見(比如,Princeton最近的一項研究表明,一些AI系統(tǒng)會性別歧視和種族歧視)。此外,也不能確定AI將如何導致技術失業(yè)、自動化戰(zhàn)爭以及黑客入侵。而且,目前還沒有達成共識,是否要給這些系統(tǒng)注入具體倫理或道德規(guī)范。
就像Elon Musk、Stephen Hawking以及其他思想家指出的,AI出現(xiàn)的嚴重問題具有令人恐懼的潛力。比如,最近google旗下的DeepMind在AI方面取得突破,這表明,一個飛速開始的事件,比如人工智能發(fā)展成為一種超級智能的形式,可能會相對迅速且沒有預兆的帶來災難性的(可能存在的)威脅。
不出乎意料的,由于這些事情正在發(fā)生,一些憂心忡忡的觀察者呼吁政府介入。
Musk已經(jīng)警告過,政府需要“在為時已晚之前”實施條規(guī),而且我們只有在事情失控之后才會采取行動。兩年前,白宮實施了一個初步的AI戰(zhàn)略,稱AI需要符合道德標準,但是必須是擴大,而不是取代人類,并且每一個人都應該有機會參與到這個系統(tǒng)的開發(fā)。
但是關于正式法規(guī),白宮表示為時尚早。正如美國前總統(tǒng)Obama去年對Wired所說的,“大多數(shù)人現(xiàn)在還沒有花很多時間擔心奇點,他們在擔心著‘好吧,我的工作會被機器取代么?’”
“沒有監(jiān)管和國家監(jiān)管之間的中間道路,是讓行業(yè)自我監(jiān)管,這是ITI的方法。但是這也離理想的方式很遠:這是讓狐貍守衛(wèi)雞舍。”
加州理工大學(California Polytechnic State University)倫理學+新興科學集團的董事Patrick Lin表示,規(guī)范新技術一直是一種微妙的平衡行為。
“如果你太早設定了法規(guī),那么你可能押注于錯誤的標準。重要的是,這對商業(yè)化來說是很糟糕的,”Lin告訴Gizmodo,“設定太多或者不必要的法規(guī)也存在同樣的問題;它們會為創(chuàng)新制造障礙。但是在緊要關頭,商業(yè)化并不是唯一的價值;公共安全是另一個重要的價值。
因此,如果對自己駕駛的汽車,犯罪判決和銀行貸款決定等人工智能系統(tǒng)產(chǎn)生嚴重影響的技術幾乎或根本沒有規(guī)定,那么這將對社會造成不利影響。不論是本能的還是條件反射的違反規(guī)則,都是錯誤的。每一項技術都是不同的,需要根據(jù)自身的優(yōu)點慎重考慮。”
Lin說到,這種談話目前發(fā)生在自動駕駛汽車方面,一個陣營爭辯道,監(jiān)管標準將把制造商放在關于安全關鍵職能的同一頁面上(這將保護該行業(yè)免受某些不利因素的影響),另一個陣營表示,我們還不夠了解開始建立標準。
“沒有監(jiān)管和國家監(jiān)管之間的中間道路,是讓行業(yè)自我監(jiān)管,這是ITI的辦法。”Lin說到,“但是這也離理想的方式很遠:這是讓狐貍守衛(wèi)雞舍。如果公司的排名不高,就沒有辦法強制執(zhí)行自我管理;甚至透明度可能會低于政府監(jiān)管機構;還有許多其他的問題。”
目前,美國還沒有一個專門負責監(jiān)管或監(jiān)控AI的聯(lián)邦機構,可能還需要一段時間才能看到類似的情況(如果有的話)。與此同時,政府內(nèi)部和外部的各種團體都將參與監(jiān)控AI的發(fā)展。