a免看的日黄亚洲_午夜久久久精品_成人午夜激情在线_免费无遮挡又爽又刺激的视频_亚洲福利电影在线_一级a性色黄生活片_国产日产欧美极品_一区二区三区精品在线_宅男视频免费下载_公天天吃我奶躁我的比视频

行業(yè)新聞-Banner1

人工智能介入人類情感 未來世界我們將錯過什么?

   隨著人工智能技術(shù)發(fā)展加速,越來越多的不可能正成為可能。人工智能在人類生活中的存在愈發(fā)廣泛且深入,甚至于已經(jīng)開始介入人類的情感當(dāng)中。


   人工智能正在我們周圍逐漸產(chǎn)生影響力。在社交媒體上做定向廣告,篩選求職者,確定機票價格,通過語音識別控制中央暖氣系統(tǒng),創(chuàng)造文化輸出,或調(diào)節(jié)交通流量等,人工智能在人類生活中的任務(wù)越來越多。


  馬斯克預(yù)測,到2017年底,特斯拉無人駕駛汽車將能夠在美國各地安全行駛,而無需人工參與。社會型機器人生活在人類周圍,能夠在十年內(nèi)完成許多家用或護理型任務(wù)。


  人們普遍認(rèn)為,到2050年,我們將能夠在這些特定領(lǐng)域之外的其他方面也獲得進展,最終實現(xiàn)通用人工智能(AGI)。AGI是微軟發(fā)布的新概念操作系統(tǒng)Singularity的一部分。其理念是計算機能夠在任何認(rèn)知型任務(wù)上超越人類,而人機融合也變得極為普遍。在那之后會發(fā)生什么,誰都說不準(zhǔn)。


  你有人工智能策略嗎?你希望有嗎?

  有一種有趣的想象是在人類身體里安裝計算機零件,從而令人類更快地處理數(shù)據(jù)。人工智能領(lǐng)域中的一些人設(shè)想的“神經(jīng)網(wǎng)格”可充當(dāng)大腦外部的額外皮層,將我們與電子設(shè)備連接起來,其速度和效率都很高。這將是機器零件的重大革新,也就是說“半機器人”身體中的電子心臟起搏器和鈦合金關(guān)節(jié)等。未來人工智能的重點將放在軍事和國防應(yīng)用上,完全自主武器的概念非常具有爭議性。這種武器系統(tǒng)可以搜索、識別、選擇和摧毀一個基于算法的目標(biāo),并從過去的安全威脅中吸取教訓(xùn),但是卻并沒有人類參與。這是一個相當(dāng)可怕的概念。


  這些關(guān)于人工智能主宰人類未來的設(shè)想,近乎科幻的反烏托邦,讓人聯(lián)想起《終結(jié)者》的場景。


  偶然性辨別

  人類距離毀滅或許還有一段路要走,但如今圍繞人工智能道德倫理的警示卻已經(jīng)敲響了警鐘。就在上個月,機器學(xué)習(xí)算法已經(jīng)受到了抨擊,因為它主動建議亞馬遜用戶制造炸彈組件,在招聘廣告中體現(xiàn)性別不平等以及通過社交媒體傳播仇恨信息等。這種錯誤的大部分原因在于機器學(xué)習(xí)的數(shù)據(jù)質(zhì)量和性質(zhì)。機器會從人類數(shù)據(jù)中得出不那么完美的結(jié)論。如今,這種結(jié)果對算法的管理和日常生活中的人工智能機制提出了嚴(yán)肅的問題。


  最近,一名有精神病史的年輕美國男子被拒絕了一份工作,原因是他對于算法型性格測試的態(tài)度不合要求。他認(rèn)為自己受到了不公平的、非法的歧視,但由于該公司不明白這種算法的運作方式,而《勞動法》目前也沒有明確涵蓋機器決策類的內(nèi)容,因此他沒有訴諸法律。中國的“社會信用”計劃也引發(fā)了類似的擔(dān)憂。去年,該計劃從社交媒體(包括朋友的帖子)中收集了一些數(shù)據(jù),以評估一個人“公民身份”的質(zhì)量,并將其用于決策,比如是否給此人提供貸款等。


  對人工智能倫理和法律的需求

  為人工智能操作和監(jiān)管制定清晰的道德體系是必要的,尤其是在政府和企業(yè)在某些方面擁有優(yōu)先權(quán)的時候,如獲取和維持電力等。以色列歷史學(xué)家尤瓦爾·赫拉利就無人駕駛汽車和電車難題的悖論進行了討論。像麻省理工學(xué)院的道德機器這樣的創(chuàng)新項目試圖收集人類對于機器倫理的數(shù)據(jù)。


  但是,倫理并不是唯一一個涉及人工智能和人類健康問題的領(lǐng)域。人工智能已經(jīng)對人類產(chǎn)生了重大的情感影響。盡管如此,作為人工智能研究的一個課題,情感也依然被忽視了。


  你可以隨意瀏覽下過去兩年里在科學(xué)學(xué)術(shù)數(shù)據(jù)庫的網(wǎng)頁上發(fā)布的3542篇關(guān)于人工智能的同行評議文章。其中只有43篇,即1.2%,包含“情感”一詞。真正描述了人工智能情感研究的文章就更少了。在考慮Singularity系統(tǒng)時,情感應(yīng)該被納入人工機器認(rèn)知結(jié)構(gòu)考慮的范疇。然而99%的人工智能研究似乎并不認(rèn)可這一點。


  人工智能了解人類的感受

  當(dāng)我們談?wù)撊斯ぶ悄苤械那楦袝r,我們指的是幾種不同的東西。一是機器能夠識別我們的情緒狀態(tài)并采取相應(yīng)的行動。情感運算領(lǐng)域正在快速發(fā)展,通過生物計量傳感器來測試皮膚反應(yīng)、大腦電波、面部表情和其他情感數(shù)據(jù)。大多數(shù)時候,計算是準(zhǔn)確的。


  這一技術(shù)的應(yīng)用既可以是善意的也可以是邪惡的。公司可以根據(jù)你對一部電影的情感反應(yīng)獲得反饋,并通過智能手機實時向你出售相關(guān)物品。政客們可能會精心打造能夠吸引特定受眾的信息。而社交機器人可能會調(diào)整自己的反應(yīng),在醫(yī)療或護理環(huán)境中更好地幫助病患,數(shù)字助手則可能會用一首歌來幫助提升你的情緒。市場力量將推動這一領(lǐng)域的發(fā)展,擴大其覆蓋范圍,并完善其能力。


  我們?nèi)绾慰创斯ぶ悄苣兀?/strong>

  這是人工智能的第二個情感領(lǐng)域。人類對人工智能的情感反應(yīng)還沒有什么進展。人類似乎想要與人工智能實現(xiàn)聯(lián)系,就像我們對待大多數(shù)技術(shù)一樣,把人的個性與無生命的物體聯(lián)系起來,讓電器擁有目的性,并將情感投射到我們所使用的技術(shù)上,例如“它對我很生氣,這就是它不起作用的原因”等等。


  這就是所謂的媒體等同(Media Equation)。它涉及到一種雙重思考:我們在理智的認(rèn)知上明白機器不是有知覺的生物,但我們在情感上卻會對它們做出反應(yīng),就好像它們擁有情感一樣。這可能源于我們?nèi)祟愖罨镜男枨?,即人際關(guān)系和情感聯(lián)系,如果沒有這些,人類就會變得抑郁。這一需求驅(qū)使人類去與其他人和動物實現(xiàn)聯(lián)系,甚至是機器。感官體驗是這種結(jié)合驅(qū)動和獎勵機制的重要組成部分,也是快樂的源泉。


  虛假社交

  當(dāng)我們的環(huán)境中不存在聯(lián)系和歸屬感的體驗時,我們會通過電視、電影、音樂、書籍、視頻游戲和任何能夠提供沉浸式社交世界的東西來復(fù)制這種體驗。這被稱為社會替代假說(Social Surrogacy Hypothesis),一種由社會心理學(xué)的實證支持的理論,它正開始被應(yīng)用于人工智能。


  人類的基本情感是有依據(jù)的,即使是面對虛擬的人工智能。例如面對數(shù)字助理的恭維所表現(xiàn)出的開心,面對拒絕抵押貸款申請的算法時表現(xiàn)出的憤怒,面對無人駕駛汽車時表現(xiàn)出的害怕,面對Twitter的人工智能拒絕驗證自己賬戶時表現(xiàn)出的難過(我現(xiàn)在還在為這個問題而傷心)。


  機器人

  人類面對有實體的人工智能的情感反應(yīng)更強,也就是說機器人。機器人越像人類,我們對它的情感反應(yīng)就越強烈。我們被擬人化的機器人所吸引,向它們表達積極的情感,當(dāng)看到它們受到傷害時,我們會產(chǎn)生同情和不快的感覺。如果他們拒絕我們,我們甚至?xí)械诫y過。


  然而,有趣的是,如果一個機器人幾乎完全像人類一樣,但又不是完美的人類,我們對它們的評估會突然下降,從而拒絕它們。這就是所謂的“恐怖谷”理論,由此產(chǎn)生的設(shè)計理念是在現(xiàn)階段讓機器人看起來不那么像人類,除非有一天我們能把機器人制作地和人類一模一樣。


  溫柔的觸摸

  人工智能現(xiàn)在利用觸覺技術(shù),一種基于觸摸的體驗,來進一步加深人類與機器人之間的情感紐帶。也許這個例子最為著名:有一只毛茸茸的海豹Paro在不同國家的護理機構(gòu)中都挺有用。


  社交和情感機器人有很多潛在的用途。其中一些措施包括照顧老年人,幫助它們自主生活,幫助遭受孤立的人,以及患有癡呆癥、自閉癥或殘疾的人?;谟|摸的感官體驗正日益被集成到虛擬現(xiàn)實等融入科技中,這是其中的一部分。


  在其他領(lǐng)域,人工智能可能會負(fù)責(zé)處理日常家務(wù)瑣事或教學(xué)之類的任務(wù)。一項針對750名年齡在5歲到18歲之間的韓國兒童的調(diào)查發(fā)現(xiàn),盡管他們中的大多數(shù)人在接受人工智能機器人教授的課程時都沒有什么問題,但許多人對人工智能老師發(fā)揮的情感作用表示擔(dān)憂。機器人能給學(xué)生提供建議或情感嗎?然而,超過40%的人贊成用人工智能機器人代替教師。


  正如哈佛大學(xué)心理學(xué)家Steven Pinker所說,像上面描述的社會替代這樣的體驗可以讓我們欺騙自己。我們并沒有真正體驗到社交,但卻欺騙大腦,讓我們相信自己是如此,從而令自己感覺更好。然而,復(fù)制的效果不如真實的好。


  結(jié)語

  顯然,人們可以從與人工智能的互動中體驗到真實的情感。但是,我們是否會在無人駕駛汽車、虛擬助手、機器人教師、清潔工和玩伴之外,錯過一些離自己不那么遙遠的東西?


  這一場景讓人想起了Harry Harlow著名的實驗,在那里,被孤立的猴子們可以選擇有著柔軟毛發(fā)的“母親”,而不需要通過冰冷的鐵絲網(wǎng)領(lǐng)取分發(fā)的牛奶。我們是否能在技術(shù)上實現(xiàn)我們想要的一切,并意識到人類基本的情感需求與現(xiàn)實世界感官體驗的樂趣是不存在的?至于對未來來說較為奢侈的東西,我們是否會追求與大批量生產(chǎn)的垃圾食品相對立的東西,即真正的感官體驗和與真人的接觸,而不是機器人?


  答案是,現(xiàn)在還不知道。但是,99%的人工智能研究沒有關(guān)注情感,這一事實表明,如果情感確實在人工智能中發(fā)揮更大的作用,那么這要么是事后的想法,要么是因為情感數(shù)據(jù)讓人工智能設(shè)備及其雇主能夠擁有更多權(quán)力和金錢。數(shù)字人文主義計劃可能會幫助我們記住一點,即當(dāng)我們朝著Singularity系統(tǒng)與人機融合進發(fā)時,我們不應(yīng)該忽視自身古老的哺乳動物大腦以及它們對情感紐帶的需求。OpenAI項目是朝著這個目標(biāo)邁出的一步,它的目標(biāo)是讓所有人都能享受到人工智能的好處。那么讓我們更進一步,在人工智能領(lǐng)域考慮下情感健康。誰又知道這會給我們帶來什么呢?