進入文明時代以來,人類就一直擔心有朝一日會遭遇“滅頂之災”,比如説變異的病毒、小行星撞擊地球,以及核災難等。隨著機器人技術的不斷演進,人類的“噩夢清單”上恐怕又多了一項:人工智慧有可能發展出自己的思想,進而引發人類的“身份危機”。
近來發出類似警告的是兩位頂尖科學家。一位是理論物理學家斯蒂芬 霍金,他甚至認為,當人工智慧發展完全,就是人類的末日;另一位是電動汽車品牌特斯拉的掌門人馬斯克,他曾公開表示:“我們要十分小心人工智慧,它可能比核武器更危險。”
對人工智慧的研究始於上世紀50年代。近幾年,科學界和産業界對它的興趣超越了以往。最近一年半來,谷歌收購了十幾家機器人公司,並正在開發人工智慧的一個圖騰——無人駕駛汽車;去年,社交媒體臉譜成立了新的人工智慧實驗室……數據顯示,2009年以來,人工智慧吸引了超過170億美元的投資,僅去年就有20多億美元投向擁有類人工智慧技術的322家公司。
在並行計算、數字化神經網路、雲技術、大數據以及深度學習演算法等技術的推動下,人工智慧的形態正逐漸顯現:它既不是擁有與人類相似意識的機器人,也不是奇點論(人工智慧與人腦智慧相容的時刻)者宣稱的超智慧,而是應用在狹窄的專業領域,如醫學、教育、法律、太空等高度專一的“行家”。隨著人工智慧的發展,人類終有一天將被其取代的恐慌感也應運而生。美國奇點大學人工智慧項目負責人尼爾 傑卡布斯坦早就説過:“要應對即將到來的人工智慧革命,我們需要在數學素養、生態素養尤其是道德素養上不斷自我提升。”
科學的發展總是出乎我們的預料。在一項技術推廣前,審慎的評估和良好的風險控制是必要的,克隆技術、大數據、基因測序無不如此。傑卡布斯坦認為,假設人類成功構建了超級電腦,而它想的跟我們不一樣,我們就得加以控制,就像對待孩子一樣。走在前沿的人和公司,已經採取了一些行動阻止可能出現的混亂。谷歌在年初收購了以神經系統科學為基礎的人工智慧公司迪普曼德,隨後即成立了“人工智慧安全倫理委員會”,以確保技術安全發展。
我們有充分理由樂觀看待人工智慧研究。為了遙遠未來可能發生的危險而遏制技術的發展是愚蠢的。但在過去60年中,隨著人工智慧每一次成功地“複製”只有人類才有的行為和能力,人類便不得不對人工智慧進行重新定義,也不得不重新定義“人類”的含義。人工智慧——這個除了人以外最像人的東西,其實是我們心理投射中一個再好不過的客體。在人工智慧高度發展的未來,人類或許將面對一場“身份危機”:人類到底是偉大還是渺小,自我存在的意義是什麼……這或許將成為人類的困擾。