距離AI“殺手級”應用出現,還有多遠?
中新網北京11月14日電(中新財經 宋宇晟 張瓊瑤 閻紅心)在過去的兩年裏,人工智慧從一個科技領域的小眾名詞迅速成為人人都在談論的顯學。當下人工智慧發展是否存在泡沫?AI“殺手級”應用還有多久才能出現?我們該如何看待技術發展帶來的新風險?近日,智源研究院院長王仲遠接受了中新財經記者專訪。
AI“殺手級”應用何時出現
“技術的發展從來不會是一帆風順的,通常都是螺旋式上升的。”
在王仲遠看來,人工智慧技術的發展也是如此。在過去七八十年的發展歷程中,該技術經過了“三起兩落”,直到本世紀,産業化進程才初見端倪,而兩年前ChatGPT-3的出現,帶來了一波新的基於大模型技術的人工智慧浪潮。
“這意味著,我們正在經歷從弱人工智慧時代到通用人工智慧時代的轉變,這是我們覺得跟過往尤其不同的地方之一。”
雖然到今天為止,能夠被人們稱為“殺手級”的人工智慧應用還未出現,也出現了一些關於“人工智慧泡沫”的討論和質疑,但王仲遠相信,“技術本身不是泡沫”。
他告訴記者,事實上,大模型技術已經開始發揮作用並轉化成生産力了。比如,利用相關技術開發各種各樣的效率型工具,用於會議紀要、生成圖像素材進行廣告投放、輔助設計師創意工作等。但是,當前對人工智慧能力的感知還局限于部分領域。
“我們一直希望C端AI‘殺手級’應用能夠出現,但目前還需要繼續提升基座模型的能力,進一步解決‘AI幻覺’等問題。”
“一直在思考如何對抗AI風險”
通常,“AI幻覺”指大語言模型提供有爭議的答案。而這些答案可能造成的不良後果也讓人們更加關注潛在的“AI風險”。
就在今年10月,外媒報道稱,美國一青少年因迷戀人工智慧聊天機器人而自殺,他的母親對相關公司提起民事訴訟,指控其存在過失導致他人非正常死亡和欺詐的行為。
“新技術的發展在帶來便利的同時,也會産生一些新的風險。”對此,王仲遠指出,AI安全問題並非今天才出現,甚至過去10年一直存在,比如虛假資訊、虛假圖片等,而從業者也一直在想辦法去對抗這種風險。
王仲遠認為,大模型的智慧化水準、通用化水準確實與以往相比都有更大提升,雖然當前人工智慧的水準還未達到已出現重大風險或重大威脅的程度。“但從技術的發展趨勢看,我們預判人工智慧未來確實存在潛在的可能性風險。”
“為了預防或降低這樣的風險,需要多方努力,既有技術層面的努力,也需要政策法規方面的努力,當然也需要更廣泛的安全教育和相關企業的共識,這些都要同步推進。”他説。
“不做純空中樓閣式的科研”
但該如何“同步推進”?
“人工智慧的系統性創新,需要演算法、工程、數據、評測等團隊深度協同。”
王仲遠認為,在這一背景下,作為新型研發機構的智源研究院正好填補了其中的空白。
事實上,將企業掌握的資源與科研院所的人才相結合,最終導向産業創新,在國內相關領域已形成共識。
“過去這幾年,智源一直在摸索創新的新模式,嘗試了‘青年人挑大梁’,不看‘帽子’,不論資排輩,讓青年科研人員沒有束縛。”
王仲遠説,已成立6週年的智源研究院,希望能做“高校做不了、企業不願意做的事情”,即做未來3到5年乃至更長時間的基礎性研究,但不做空中樓閣式的研究。“我們希望這樣的技術研究最終能夠賦能整個産業。”
他告訴記者,人工智慧技術目前仍處於“基礎技術突破”的階段,當基礎模型能力達到一定水準後,才會産生應用層面的創新,並形成産業級場景應用。
王仲遠表示,在當下這一階段,恰恰需要更多耐心資本真正投入硬科技領域,促進這一輪科技的發展。“就像當年的 PC網際網路時代、移動網際網路時代都經歷過的那樣。只是我們現在還處在AI技術爆發期和硬科技投資期。”(完)