上傳你的生命
(美)社論:阿凡達(dá)的革命:新人類的到來
佐伊-格雷斯頓(Zoe Graystone)是一個擁有兩個大腦的女孩:一個是人腦,另一個是擁有自我意識的精確的數(shù)字拷貝。佐伊死后,若將她的數(shù)字大腦植入人形機器人中,就如同讓她從墳?zāi)怪衅鹚阑厣话恪?/p>
事實上,格雷斯頓是美國電視劇《卡布里卡》(Caprica)中的一個角色,這樣的概念在科幻小說中由來已久。但是,這真的可以成為現(xiàn)實么?
在可預(yù)見的未來,創(chuàng)造這樣一個真正有意識的機器克隆人,前景還很渺茫,但一些公司已經(jīng)朝著這個方向邁出了第一步。他們最初的目標(biāo)是制造一個栩栩如生的數(shù)字化身,即阿凡達(dá),這樣即使肉體已經(jīng)腐爛,你的生命仍然可以延續(xù)。它不但可以向你的曾孫們傳授有價值的經(jīng)驗,還讓他們了解了自己的曾祖。
當(dāng)然,科學(xué)家們最終的目的是創(chuàng)造出人性化、有自我意識的阿凡達(dá),讓你或者你的化身獲得永生。“如果你能將自己以數(shù)字的形式上傳,那你就可以永生了,這實際是一個避免死亡的方式”, 美國Lifenaut公司的尼克-邁爾(Nick Mayer)如是說,該公司正在探索各種制作栩栩如生阿凡達(dá)的方法。
現(xiàn)在,他們正依據(jù)一系列個性測試、教學(xué)課程以及上傳的照片、影像、信件等個人資料為基礎(chǔ)制作阿凡達(dá),邁爾稱,這樣的阿凡達(dá)將擁有你的長相、按照你的方式說話,并能描述你生命中重要的事件,例如你的婚禮日期?墒沁@項技術(shù)會何去何從呢?電腦能再現(xiàn)多少你的個性和知識?我們又真的期望死者“重生”嗎?
像很多人一樣,我也經(jīng);孟胱约耗苡幸粋克隆體:它能分擔(dān)我的工作,讓我有更多的空閑時間,或許還是一種讓我活得更長久的方式。為實現(xiàn)永生,第一步我將利用Lifenaut公司的網(wǎng)頁創(chuàng)建一個與他人(希望我的子孫也在其中)互動的視效界面,上傳我的正面標(biāo)準(zhǔn)照, Lifenaut的軟件可以使之實現(xiàn)說話、眨眼、眉目傳情等動畫效果。
目前這種阿凡達(dá)還比較粗糙,其他公司的高仿真重現(xiàn)技術(shù)也許會適用于Lifenaut的項目。加州圣莫尼卡一家名叫Image Metrics的公司,就是專門為電影和游戲制作數(shù)字面孔的公司。
面部制作異常艱難。多年來,動畫制作人一直在尋求克服“恐怖谷”問題的方法,所謂“恐怖谷”是指電腦合成的面孔如果看起來很像真人,但又不完全一樣時,會很容易令觀察者產(chǎn)生厭惡的感覺。洛杉磯南加利福尼亞大學(xué)的迪米特里-威廉姆斯(Dmitri Williams)說:“這樣似像非像的系統(tǒng)讓人毛骨悚然。”
Image Metrics公司相信自己已經(jīng)找到了攻破“恐怖谷”的方法。該公司的工程師們拍攝了一系列高分辨率、不同表情的人臉照片,然后用功能強大的數(shù)學(xué)建模軟件計算出這些表情之間的差別,結(jié)果非常令人滿意。例如,在2008年洛杉磯舉行的計算機圖形學(xué)和技術(shù)交互(ACM Siggraph)大會上,Image Metrics公司展示了美國演員埃米莉-奧布萊恩(Emily O’Brien)的數(shù)字化身,它不但看起來十分逼真,而且可以實時操控。Image Metrics公司的CEO邁克-斯塔伯格(Mike Starkenburg)說:“它一舉一動都很完美,我們甚至能讓埃米莉說出任何我們想說的事情。”
現(xiàn)在這種工藝還十分昂貴:制作一個虛擬的埃米莉花費了將近50萬美元,所以,眼下我還是湊合用我那個簡陋的阿凡達(dá)吧,希望我的孫子們能接受。
創(chuàng)造一個人類
來自芝加哥伊利諾斯大學(xué)和奧蘭多佛羅里達(dá)中心大學(xué)的研究表明,阿凡達(dá)的行為舉止可能比它的外觀更重要。2007年起,這兩所大學(xué)的研究者們就Lifelike項目展開合作,該項目的目的是創(chuàng)造一個逼真的前美國國家科學(xué)基金會董事――亞歷山大-施瓦茨科普夫(Alexander Schwarzkopf)的阿凡達(dá)。
為了了解人們最在意的人物特征,他們向1000多名學(xué)生展示了施瓦茨科普夫的照片、視頻和阿凡達(dá)原型,然后得出這樣的結(jié)論:關(guān)注一個人的某些特質(zhì)行為比制作一副栩栩如生的圖像更為重要。伊利諾斯大學(xué)的史蒂夫-瓊斯(Steve Jones)說:“這些特質(zhì)行為可以是說話時如何歪腦袋,或者如何皺眉。”
確保這些動作出現(xiàn)在正確的語境中同樣非常重要。為了實現(xiàn)這一點,瓊斯的研究隊伍試著將一些特殊詞語、語句與頭部動作聯(lián)系起來,例如,讓阿凡達(dá)看起來是在傾聽,瓊斯說:“如果阿凡達(dá)正在聽你講述一個悲傷的故事,你一定希望它能表現(xiàn)出一些同情。”當(dāng)然,瓊斯承認(rèn)他們現(xiàn)在還沒有達(dá)到這樣的效果。
接下來的挑戰(zhàn)是讓阿凡達(dá)能像人類一樣交談。目前大多數(shù)虛擬交談都來自聊天機器人,它們通過軟件分析對話中的語境,然后生成相對應(yīng)的智能發(fā)聲,就像機器人自己在思考一樣,Lifenaut公司則為每個客戶量身打造了聊天軟件。根據(jù)英國埃克塞特郡人工智能 公司Icogno的羅洛-卡朋特(Rollo Carpenter)的說法,雖然現(xiàn)階段仍有很多不足,這樣的軟件復(fù)制品并不具有自我意識也不等同于你,但是,其他人可以和它交談,并且至少有那么一瞬間他們會覺得看到了你的影子。
Lifenaut 公司阿凡達(dá)的會話能力來自卡朋特制作的名為Jabberwacky的聊天機器人。這個機器人自1997年以來通過與上千萬人對話不斷完善發(fā)展而來,曾 兩次獲得勒布納人工智能獎,堪稱與人類最像的機器人。當(dāng)大部分的聊天機器人都在使用預(yù)先設(shè)定的語句對特定的關(guān)鍵詞語作出回應(yīng)時,Jabberwacky卻在尋求對話常見的模式,利用這點來確定當(dāng)前對話的語境并作出適當(dāng)?shù)姆磻?yīng)。
“我”的本質(zhì)
Lifenaut公司的阿凡達(dá)或許會像人類一樣作出反應(yīng),但是,你憑什么確定它就是你的化身呢?唯一的方法就是告訴它你是怎樣的人。性格上傳是一個非常麻煩的過程。第一步就需要依據(jù)480多種情景所反映的感受進行評定,例如“我喜歡討好他人”、“我同情無家可歸的人”。之后我要上傳諸如日記以及照片、視頻等標(biāo)有日期、地點和關(guān)鍵字的文件來幫助我的阿凡達(dá)建立 “記憶”。我還會花幾小時的時間跟Lifenaut公司的其他阿凡達(dá)們進行對話,以便于我的阿凡達(dá)“琳達(dá)(Linda)”從中學(xué)習(xí),她將會擁有和我一樣的習(xí)慣風(fēng)格:我問候他人或者回答問題的方式,以及更多的表達(dá)出我的見解和好惡。
名為CyBeRev的相關(guān)項目使用了一系列更為精細(xì)的性格的問卷。參與者需要回答上千個出自美國社會學(xué)家威廉姆-西姆斯-班布里奇(William Sims Bainbridge)的問題,來對各種想法進行歸檔。。與一般性格調(diào)查不同的是,問卷的其中一些步驟是通過讓參與者想象下個世紀(jì)的世界來捕捉他們的價值觀、信仰、希望和人生目標(biāo)等信息的。這并不是一個很快的過程, Terasem Movement是一個為CyBeRev項目提供資金的非盈利性組織,該組織的成員洛里-羅德斯(Lori Rhodes)說:“如果你一天只花一小時來回答這些問題,那么你需要五年的時間來完成這份問卷,但是你回答的越多,你的思維檔案就更加準(zhǔn)確的被展現(xiàn)出來。”
那么我的數(shù)字化身是否真能讓我的性格真實的再現(xiàn)呢?卡朋特(Carpenter)承認(rèn),為了保證這個化身與真人完美的相似,一個Lifenaut公司的阿凡達(dá)很可能需要一生的時間和你對話,而且我也不確定那一大堆的照片和錄像多大程度展現(xiàn)了我最真實的記憶。還有更好的方式上傳你的思維嗎?
其中的一個選擇是自動捕捉日常生活的信息,并將它直接輸入到阿凡達(dá)中。—像微軟的研究人員戈登-貝爾(Gordon Bell)這樣的“生活記錄者”(Lifeloggers)已經(jīng)開始這樣的實踐,他隨身佩戴一個便攜式的攝像機,用影像的方式來記錄他生活的大部分片段。
英國南安普頓大學(xué)尼格爾-沙巴爾特(Nigel Shadbolt)領(lǐng)導(dǎo)的研究小組,試圖通過開發(fā)一款軟件對此進行改進,它能將一天中拍攝的數(shù)字圖片與從你的日記、問過的社交網(wǎng)站,以及全球定位系統(tǒng)記錄到的你的位置等提取的信息結(jié)合起來。另一些研究人員則在考慮將生理指標(biāo)整合進來—比如心跳頻率可以提供一些基本的情感狀態(tài)。盡管如此,迄今為止整合所有這些信息對拼湊一個阿凡達(dá)來說仍沒有太大的作用。沙巴爾特說:“制造一個精確的個體復(fù)制品,我們才剛上路?梢源_定的是開發(fā)一款有個人態(tài)度的軟件代理還是可行的,不過這是否是我的態(tài)度就令人懷疑了。”
顯然,創(chuàng)造一個類似佐伊-格雷斯頓(Zoe Graystone)有自我意識的阿凡達(dá)肯定困難重重。人工智能的研究者們雖然在制造具有類人特質(zhì)的機器上取得了一些成績,其中包括MIT的羅德尼-布魯克斯(Rodney Brooks)開發(fā)的類人機器人cog和kismet,以及總部設(shè)在德克薩斯的人工智能公司Cycorp的道格-萊納特(Doug Lenat)開發(fā)的智能軟件系統(tǒng)塞克(Cyc)。然而,據(jù)設(shè)計了Conscale人工意識測試系統(tǒng)的西班牙馬德里卡洛斯三世大學(xué)的勞爾-阿拉巴萊斯(Raúl Arrabales)介紹,現(xiàn)在能做到的最好的人工智能水平也就等同于1歲大的孩子。德克薩斯州達(dá)拉斯?jié)h森機器人的創(chuàng)始人漢森卻認(rèn)為:“這些并不代表我們不應(yīng)該嘗試,的確我們沒有證據(jù)可以證明機器能具有意識,我們也并不完全了解什么是意識,但是如果就此認(rèn)為機器不能具有意識顯然是愚蠢的。”
身體的一部分
其中一個問題是,人體的某些部位對于類人意識的發(fā)展必不可少,意大利巴勒莫大學(xué)的機器人研究員安東尼奧-切利(Antonio Chella)說:“意識需要大腦、身體以及環(huán)境間緊密的相互作用。”我們可以利用全身來感知世界,那么一個有意識的實體也需要傳感器來感知世界和監(jiān)控自己的運動。
參與Lifelike項目的研究人員正嘗試將照相機和他們制造的數(shù)字施瓦茨科普夫(Schwarzkopf)整合在一起,這樣它就可以從對方的身體語言中得到提示及時調(diào)整自身行為。漢森(Hanson)的目標(biāo)更加雄心勃勃,他的公司制作像真人一樣的機器人,他和邁爾(Mayer)還討論過將Lifenaut公司的數(shù)字化身植入機器人體內(nèi),他說:“將模擬思維與身體實體結(jié)合起來可以讓思維實實在在地與世界互動,去探索和生活。”
這是制作一個有意識機器的第一步,但是如果要走的更遠(yuǎn),那就需要將現(xiàn)在支離破碎的人工智能機構(gòu)協(xié)調(diào)起來,投入更多的努力。為了達(dá)到這個目的,漢森發(fā)起了“阿波羅大腦”計劃,倡導(dǎo)研究組織之間的合作,目標(biāo)是在2019年使機器智能達(dá)到真實人類水平。這個計劃的第一步是開發(fā)一套可供整個機器智能組織使用的合作軟件,幫助科學(xué)家們明確當(dāng)前的研究任務(wù)及需要改進的地方。漢森說:“整個項目的最終結(jié)果是超越人類智能,創(chuàng)造像莫扎特這樣的天才。從某種意義上講,我們正在尋找前所未有的機器。”
創(chuàng)造超越人類智能的機器
那我自己的阿凡達(dá)呢?在卡朋特(Carpenter)建議下,我讓我的丈夫?qū)λM行了評估。經(jīng)過簡短的交談,他告訴我,關(guān)于政治、食物和運動等問題的回答都是一派胡言。它還告訴我丈夫我要比實際的年齡年輕。可是我并沒有隱瞞我的年齡,難到Lifenaut公司的問卷能發(fā)現(xiàn)我潛在的虛榮心?而這最終在我的阿凡達(dá)身上表露無遺。
它究竟有多像人類?阿拉巴萊斯計劃在7月使用Conscale來測試Lifenaut公司的阿凡達(dá)。盡管這個軟件的某些方面可以達(dá)到高意識層面,但阿拉巴萊斯預(yù)測它與真人仍有很大的差距,滿分10分的話它最多只能達(dá)到3分的水平。阿拉巴萊斯說:“忘了佐伊-格雷斯頓(Zoe Graystone)吧,那個阿凡達(dá)的水平幾乎相當(dāng)于一條蚯蚓。所有的時間和努力就是為了這么一個環(huán)節(jié)動物。不可否認(rèn),我很悲觀。
下一條·主要不是醫(yī)生的問題
1、凡本網(wǎng)注明“來源:醫(yī)學(xué)教育網(wǎng)”的所有作品,版權(quán)均屬醫(yī)學(xué)教育網(wǎng)所有,未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、鏈接、轉(zhuǎn)貼或以其他方式使用;已經(jīng)本網(wǎng)授權(quán)的,應(yīng)在授權(quán)范圍內(nèi)使用,且必須注明“來源:醫(yī)學(xué)教育網(wǎng)”。違反上述聲明者,本網(wǎng)將追究其法律責(zé)任。
2、本網(wǎng)部分資料為網(wǎng)上搜集轉(zhuǎn)載,均盡力標(biāo)明作者和出處。對于本網(wǎng)刊載作品涉及版權(quán)等問題的,請作者與本網(wǎng)站聯(lián)系,本網(wǎng)站核實確認(rèn)后會盡快予以處理。
本網(wǎng)轉(zhuǎn)載之作品,并不意味著認(rèn)同該作品的觀點或真實性。如其他媒體、網(wǎng)站或個人轉(zhuǎn)載使用,請與著作權(quán)人聯(lián)系,并自負(fù)法律責(zé)任。
3、本網(wǎng)站歡迎積極投稿
4、聯(lián)系方式:
編輯信箱:mededit@cdeledu.com
電話:010-82311666
010 82311666
400 650 1888