2018年3月14日,被譽為20世紀(jì)最偉大的物理學(xué)家史蒂芬·霍金逝世,全世界都表達(dá)了對這名偉人的緬懷之情。同時也為他留下的一些人類發(fā)展預(yù)言有著擔(dān)憂,其中關(guān)于人工智能的發(fā)展,霍金在去年11月份的時候說過,如果人工智能不加以控制的話,或許第三次世界大戰(zhàn)將引爆。
現(xiàn)在世界各國都在大力發(fā)展人工智能,可以說人工智能已經(jīng)廣泛使用在各個領(lǐng)域,最為關(guān)鍵的是軍事上的應(yīng)用,比如作戰(zhàn)機(jī)器人和無人機(jī),當(dāng)人工智能發(fā)展到一定程度的時候很有可能機(jī)器人和無人機(jī)將不再受人類的控制,有了自己的意識而引發(fā)一系列殺戮導(dǎo)致人類世界混亂。
可能這個預(yù)言很多人無法全盤接受,但是也有不少人開始擔(dān)心人工智能是不是一種仿生學(xué),會不會威脅到人類的安全。
作為現(xiàn)代科技類公司巨頭之一的百度創(chuàng)始人李彥宏在去年表示出自己對于人工智能的態(tài)度是樂觀的。但是在今年的數(shù)博會上卻表示了自己對于人工智能的擔(dān)心,他提出的AI倫理原則有四點,第一原則是安全可控是最高原則;第二是促進(jìn)人類平等地獲得技術(shù)和能力是創(chuàng)新愿景;第三個則是人工智能的存在價值不是超越人、代替人,而是教人學(xué)習(xí)和成長;第四個是人工智能的終極理想應(yīng)該是帶給我們更多的自由和可能。
對人工智能有辯證的認(rèn)識也是發(fā)展的一部分,未來人工智能的走向和終極發(fā)展形態(tài)如何,到底是人類駕馭人工智能還是人工智能反過來超越人類,這個只能由時間來見證。