如果這類(lèi)AI軟件進(jìn)一步發(fā)展到可以隨時(shí)控制正常人的大腦,就違背和超越了人工智能的一個(gè)極大的倫理原則,即AI不應(yīng)用來(lái)收集或使用信息,以監(jiān)視
如果這類(lèi)AI軟件進(jìn)一步發(fā)展到可以隨時(shí)控制正常人的大腦,就違背和超越了人工智能的一個(gè)極大的倫理原則,即AI不應(yīng)用來(lái)收集或使用信息,以監(jiān)視人和控制人。
5月2日,美國(guó)麻省理工學(xué)院的三位科學(xué)家在《科學(xué)》(Science)發(fā)表文章稱(chēng),他們首次用AI軟件大腦視覺(jué)神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)了控制動(dòng)物(猴子)大腦的神經(jīng)元活動(dòng)。這是使用人工神經(jīng)網(wǎng)絡(luò)來(lái)理解真實(shí)神經(jīng)網(wǎng)絡(luò)的一大突破。
控制大腦的思維好像天方夜譚,但是不斷有研究人員嘗試突破。
對(duì)人腦進(jìn)行控制,較早的研究是腦機(jī)接口,而現(xiàn)在,新的控制大腦的方式出爐了,是用深度學(xué)習(xí)的方式讓AI模擬人工神經(jīng)網(wǎng)格(ANN)掌握對(duì)圖像的識(shí)別,然后通過(guò)操控人工神經(jīng)網(wǎng)絡(luò),達(dá)到對(duì)大腦的控制。
具體而言,即研究人員建立一個(gè)基于人工神經(jīng)網(wǎng)絡(luò)的視覺(jué)系統(tǒng)模型,每個(gè)網(wǎng)絡(luò)都以一個(gè)由模型神經(jīng)元或節(jié)點(diǎn)(類(lèi)似于真實(shí)神經(jīng)系統(tǒng)中的突觸)組成的任意架構(gòu)開(kāi)始,這些神經(jīng)元或節(jié)點(diǎn)可以以不同的強(qiáng)度(權(quán)重)相互連接。然后,用一個(gè)包含超過(guò)100萬(wàn)張圖像的圖庫(kù)來(lái)訓(xùn)練這些模型。當(dāng)研究人員向模型展示每張圖像,以及圖像中最突出的物體(比如飛機(jī)或椅子)的標(biāo)簽時(shí),模型通過(guò)改變連接的強(qiáng)度來(lái)學(xué)習(xí)識(shí)別物體。
隨后把這些圖像呈現(xiàn)給猴子來(lái)測(cè)試AI模型控制猴子神經(jīng)元的情況,結(jié)果表明,AI模型可以強(qiáng)烈激活所選定的大腦神經(jīng)元,甚至可以精確控制單個(gè)神經(jīng)元和位于網(wǎng)絡(luò)中間的神經(jīng)元群。因此,未來(lái)可能只要能操控視覺(jué)神經(jīng)網(wǎng)絡(luò)模型AI,就可以控制大腦。
由于人和非人靈長(zhǎng)類(lèi)動(dòng)物的解剖和生理都相似,這一研究結(jié)果似乎也可以推論到人,也就是未來(lái)如果采用某種AI模型,就可以控制人的大腦。
但這種控制顯然是初步的和局部的。實(shí)際上,準(zhǔn)確地說(shuō),這種情況并非控制大腦,而是吸引猴子或人的大腦更多關(guān)注某一物體和事物。
現(xiàn)在已知人腦中大約有1000億個(gè)神經(jīng)元(神經(jīng)細(xì)胞),每個(gè)神經(jīng)元又通過(guò)突觸(神經(jīng)元與神經(jīng)元之間的接頭)與多個(gè)神經(jīng)元聯(lián)系,是通過(guò)神經(jīng)元上的稱(chēng)為軸突和樹(shù)突的分支來(lái)建立聯(lián)系的。
但是,這些聯(lián)系是如何形成并且有多少種聯(lián)系方式,迄今人們知道的并不多。
但即便解決了所有的問(wèn)題,也明確了用圖像控制大腦不同部位的神經(jīng)元(激活并傳導(dǎo)到特定的神經(jīng)網(wǎng)絡(luò)),未必就能真的實(shí)現(xiàn)控制大腦,因?yàn)檫@涉及太多的倫理問(wèn)題。
在治療疾病上,此舉倫理上的爭(zhēng)議或許相對(duì)較小——畢竟只是為了治療疾病,而且保證不會(huì)對(duì)病人造成傷害,也不會(huì)在治愈后還持續(xù)不斷地控制病人的大腦,大概是可以通過(guò)倫理委員會(huì)的批準(zhǔn)。
但對(duì)于正常人而言,通過(guò)這樣的AI軟件來(lái)控制大腦就有比較大的倫理問(wèn)題。
即便是應(yīng)用于提高記憶力和增強(qiáng)學(xué)習(xí)能力,都有可能造成不對(duì)等競(jìng)爭(zhēng)的后果,也會(huì)產(chǎn)生不公正。
更重要的是,如果這類(lèi)AI軟件進(jìn)一步發(fā)展到可以隨時(shí)控制正常人的大腦,就違背和超越了人工智能的一個(gè)極大的倫理原則,即AI不應(yīng)用來(lái)收集或使用信息,以監(jiān)視人和控制人。
因此,AI大腦視覺(jué)神經(jīng)網(wǎng)絡(luò)模型最大的用處,應(yīng)當(dāng)是用來(lái)診治疾病及研究生命現(xiàn)象和機(jī)理,當(dāng)然這應(yīng)是在技術(shù)成熟并有了規(guī)范而具體的倫理原則之后。(作者 張?zhí)锟?