機(jī)器人會(huì)傷害人類嗎?科學(xué)家們是這么說(shuō)的
2025-03-05

劍橋大學(xué)存在風(fēng)險(xiǎn)研究中心研究員沙哈?艾文(Shahar Avin)認(rèn)為,如何防止邪惡人工智能成形,現(xiàn)在的人工智能研究還沒(méi)有找到好辦法。艾文還說(shuō):“我們需要建立一個(gè)機(jī)構(gòu),它不能也不會(huì)修改自己的價(jià)值系統(tǒng)。”他還說(shuō),大家面臨的共同難題是如何做。將更多的資金和更多的爭(zhēng)論結(jié)合,可以將更多的研究者吸引到問(wèn)題上來(lái),一起尋找辦法確保人工智能的安全。
機(jī)器沒(méi)有傷害人的動(dòng)機(jī)
特斯拉CEO馬斯克和其它一些科技名人正是先行者,他們于12月11日創(chuàng)立了OpenAI,這是一個(gè)非盈利機(jī)構(gòu),它可以盡可能公開地開發(fā)新的人工智能技術(shù)。
百度科學(xué)家吳恩達(dá)的看法不太一樣,他認(rèn)為過(guò)度關(guān)注“人工智能的邪惡智力”可能會(huì)分散精力,它更可能帶來(lái)消極影響,恰如失業(yè)一樣。Facebook人工智能研發(fā)主管伊恩?勒坤(Yann LeCun)則說(shuō):“機(jī)器的智力會(huì)是完全不同的,人有做壞事傷害他人的動(dòng)機(jī),機(jī)器沒(méi)有。”
加拿大總督戴維?約翰斯頓(David Johnston)曾經(jīng)在多倫多的會(huì)議上說(shuō)過(guò)一番話,這些話可能反映了我們的共同心聲。約翰斯頓說(shuō):“我們?cè)絹?lái)越意識(shí)到機(jī)器學(xué)習(xí)和人工智能很可能馬上就會(huì)出現(xiàn),當(dāng)它們真的出現(xiàn)時(shí),我們清楚它的影響是很大的。既然這樣,我們能扮演什么角色呢?我們?nèi)绾螐娜斯ぶ悄芗夹g(shù)中獲得最大的機(jī)會(huì)呢?如何將它帶來(lái)的挑戰(zhàn)最小化呢?”