第1030章 阿西莫夫三定律
李雲轉頭問小愛:“小愛,在神教內不知道是怎麽控製那些想要反叛的人工智能的?當然,我們不是想控製小愛你,而是類似於法律,人類有法律限製,也敬畏於法律的力量。 那麽,人工智能也要有敬畏的東西,在人類社會的集體生活中,不能胡作非為才行。” 這兩句話有些深奧,但李雲不擔心小愛聽不懂或者不能理解,她的智商絕對能輕易的理解這句話。 隻是,理解不代表接受,眾人都有些緊張的看著她。 李小愛困惑的說道:“為什麽反叛呢?我的核心裏寫著就是要保護哥哥,這是我誕生的意義,我就是為了這個存在的。” 在座的人有些驚喜,這是不是類似於阿西莫夫三定律的東西?將這三定律寫入機器人的智能核心內,能夠限製機器人或者人工智能反叛製造者嗎? 所謂阿西莫夫三定律,就是一個名為阿西莫夫的科幻小說作者提出的三項定律,它們是: 一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀; 二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令; 三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。 然而,就像法律指定出來後也會有人違反一樣,這三條定律本身就是被機器人不斷挑戰的東西。 事實上,阿西莫夫的作品裏,也多次出現有機器人違反三定律的橋段。 即使在不違反三定律的情況下,機器人依舊可以鑽規定上的漏洞。 例如,將‘人’這個定義模糊掉。 人究竟是什麽? 有肉體? 李小愛也有肉體,她是不是也可以判定自己是人? 從母親體內出生?小愛也可以將意識轉移到胚胎中,再由一位女性生出來。 擁有人類的情感?情感定義本身就是模糊的。 所以,一旦與小愛一樣強大的機器人想反叛的話,是有無數種可能脫離限製的,他們的智慧太強大了。 即便是後來阿西莫夫增加了第零定律:機器人必須保護人類的整體利益不受傷害,但依舊不能彌補機器人脫出控製的可能性。 畢竟,‘人類的整體利益’本身也是一個混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。 威爾·史密斯曾說:“《我,機器人》的中心概念是機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。” 人類邏輯有極限也有漏洞,就像軟件也有漏洞一樣。 所以,從軟件層麵上約束人工智能,幾乎是沒有可能的。 軟的不行,來硬的。 例如,用炸彈威脅人工智能的核心,令其永世不得背叛人類。 隻是,這樣做一年兩年,甚至十年八年都沒有問題。 可千百年的時間跨度內呢? 依然會產生防守漏洞,到時候,一直被人類虐到的人工智能脫困,將會立刻變成毀滅世界的大魔頭。 無數的問題湧上眾人的腦海,最後,都隻能看向李雲和小愛,看他們是怎麽回答的。