2017年元旦前后出現(xiàn)神秘高手Master橫掃各路圍棋高手未嘗一敗。隨后1月2日晚Google旗下DeepMind正式承認該神秘高手正是重出江湖的升級版AlphaGoai未來發(fā)展方向和趨勢,輿論一片嘩然。1月6日下午ai未來發(fā)展方向和趨勢,騰訊集團副總裁、騰訊AI Lab負責人姚星在騰訊研究院年會上ai未來發(fā)展方向和趨勢,就騰訊在AI領域布局及產(chǎn)業(yè)未來的發(fā)展趨勢進行了主題演講,闡述了其對于AI真實的希望和隱憂。
在姚星看來,AI對中國整個互聯(lián)網(wǎng)都很重要。首先是中國有龐大的互聯(lián)網(wǎng)用戶,每天產(chǎn)生的數(shù)據(jù)足夠多,這是非常大的優(yōu)勢ai未來發(fā)展方向和趨勢;第二是多樣的應用場景,能為AI技術落地提供很多的機會;第三個是人才儲備,雖然國內(nèi)在機器學習上的專業(yè)還比較少,但從整個世界上來看,這個領域的華人是非常多的。所以在人才結(jié)構(gòu)上面,中國有非常好的人才基礎。
不可否認的是,人工智能技術對人類體力及腦力的逐步替代,給各行各業(yè)帶來的變革重構(gòu)。比如,人工智能在金融領域主要應用于身份識別、風險控制與投資決策;智能安防與高清、云技術、大數(shù)據(jù)、感知、物聯(lián)網(wǎng)等技術融合,組成智能化的業(yè)務應用體系;人工智能在提高疾病診斷準確率及藥物研發(fā)效率等方面優(yōu)勢明顯;家電廠商、互聯(lián)網(wǎng)公司和傳統(tǒng)科技巨頭紛紛開始采取戰(zhàn)略結(jié)盟的方式加速布局智能家居市場。
AI概念的興起引發(fā)了資本的競相追逐。全球人工智能投融資規(guī)模在近兩年大幅爆發(fā), 2015 年已達 24 億美元。 根據(jù) CB Insights的數(shù)據(jù), 全球人工智能融資交易的筆數(shù)從 2013 年的 196 筆上升到了 2015 年的 397 筆,翻了近一倍;成交金額從 2013 年的 7.6 億美元上升到了 2015 年的 24 億美元,增長超過 300%。同時, 布局較早的人工智能企業(yè)日趨成熟,人工智能創(chuàng)業(yè)快速增加。 流入到初創(chuàng)公司的 E 輪以上融資的資金占比從 2013 年的 7%增長到 2015 年的 21%,另外,自2012年起每年有將近一半的交易是種子和天使輪。
國內(nèi)人工智能領域投資金額、數(shù)量、參與投資機構(gòu)數(shù)量也從 2014 年開始大幅增加,2015年投資總額超過 14 億元。 國內(nèi)獲得投資的人工智能企業(yè) 72%屬于應用類企業(yè);從技術領域看, 計算機視覺領域的公司占了一半以上。
中金公司認為,可關注 AI 行業(yè)中的技術創(chuàng)新、垂直場景、戰(zhàn)略合作與外延并購。但AI 行業(yè)整體處于起步期, 二級市場仍以主題投資為主。建議關注將 AI 列為公司發(fā)展戰(zhàn)略同時布局持續(xù)落地的公司。但也要注意相關風險,比如:政策發(fā)生變動,政府的扶持力度不及預期;由于人才外流等原因,國內(nèi)的技術升級速度顯著慢于國外;缺乏良好的產(chǎn)品形態(tài)與商業(yè)模式,企業(yè)長期無法盈利;由于需求升級緩慢以及傳統(tǒng)系統(tǒng)集成商把控渠道等原因,人工智能的應用受阻等。
申萬宏源證券認為,國內(nèi)的AI公司在深度應用方面大有可為。其將AI應用劃分了5種模式,對應如下:
模式一:生態(tài)構(gòu)建者——全產(chǎn)業(yè)鏈生態(tài)+場景應用作為突破口。以互聯(lián)網(wǎng)公司為主,長期投資基礎設施和技術,同時以場景應用作為流量入口,積累應用,成為主導的應用平臺,將成為人工智能生態(tài)構(gòu)建者(如Google、 Amazon、 Facebook、阿里云等)。
關鍵成功因素:大量計算能力投入,積累海量優(yōu)質(zhì)多維度數(shù)據(jù),建立算法平臺、通用技術平臺和應用平臺,以場景應用為入口,積累用戶。
潛力A股公司:同花順、東方財富
模式二:技術算法驅(qū)動者——技術層+場景應用作為突破口。以軟件公司為主,深耕算法平臺和通用技術平臺,同時以場景應用作為流量入口,逐漸建立應用平臺(如Microsoft、 IBMWatson等)。
關鍵成功因素:深耕算法和通用技術,建立技術優(yōu)勢,同時以場景應用為入口,積累用戶。
潛力A股公司:科大訊飛、恒生電子。
模式三:應用聚焦者——場景應用。以創(chuàng)業(yè)公司和傳統(tǒng)行業(yè)公司為主,基于場景或行業(yè)數(shù)據(jù),開發(fā)大量細分場景應用。
關鍵成功因素:掌握細分市場數(shù)據(jù),選擇合適的場景構(gòu)建應用,建立大量多維度的場景應用,抓住用戶;同時,與互聯(lián)網(wǎng)公司合作,有效結(jié)合傳統(tǒng)商業(yè)模式和人工智能。
潛力A股公司:鼎捷軟件、思創(chuàng)醫(yī)惠、天源迪科。
模式四:垂直領域先行者——殺手級應用+逐漸構(gòu)建垂直領域生態(tài)。以垂直領域先行者為主,在垂直領域依靠殺手級應用(如出行場景應用、面部識別應用等)積累大量用戶和數(shù)據(jù),并深耕該領域的通用技術和算法,成為垂直領域的顛覆者(如滴滴出行、曠視科技等)。
關鍵成功因素:在應用較廣泛且有海量數(shù)據(jù)的場景能率先推出殺手級應用,從而積累用戶,成為該垂直行業(yè)的主導者;通過積累海量數(shù)據(jù),逐步向應用平臺、通用技術、基礎算法拓展。
典型代表公司:東方網(wǎng)力、北部灣旅。
模式五:基礎設施提供者——從基礎設施切入,并向產(chǎn)業(yè)鏈下游拓展。以芯片或硬件等基礎設施公司為主,從基礎設施切入,提高技術能力,向數(shù)據(jù)、算法等產(chǎn)業(yè)鏈上游拓展。
潛力A股公司:景嘉微、同有科技、浪潮集團、中科曙光、 ST漢柏、歐比特等
另附
姚星現(xiàn)場演講實錄:
AI:真實的希望和隱憂
○
姚星
各位朋友大家下午好。今天我演講的題目是“AI:真實的希望和隱憂”。什么叫希望,希望就說明大家期待,隱憂說明大家期望過大。
回顧一下互聯(lián)網(wǎng)過去發(fā)展的二十年。實際上,過去的二十年是信息高速發(fā)展的二十年,它經(jīng)過了幾個發(fā)展階段。從發(fā)展的方向上來講,應該是在上世紀九十年代初期,中國第一次連上互聯(lián)網(wǎng),進入到互聯(lián)網(wǎng)這個大家庭當中。
但是由于當時網(wǎng)絡速度的問題,大部分互聯(lián)網(wǎng)應用還是只限于溝通,溝通解決了很多問題,人不再需要面對面,或者通過傳統(tǒng)的書信方式進行溝通。不論在天涯海角,只要能連上互聯(lián)網(wǎng),人們總是可以接觸到一些消息。
隨著整個設備傳輸?shù)陌l(fā)展、網(wǎng)吧的興起,網(wǎng)絡速度大幅提升,這時候人們對互聯(lián)網(wǎng)的訴求不再僅僅是消息的傳遞和溝通,更多的是分享。MSN、 Facebook、QQ空間等都是基于分享,人人為我,我為人人,那時候有很多東西都是通過互聯(lián)網(wǎng)來分享的。
隨著隨后的移動時代的發(fā)展,特別是智能手機和智能終端的發(fā)展,你會發(fā)現(xiàn),最近這五年以來,隨著移動互聯(lián)網(wǎng)高速發(fā)展,人們不再是在特定的時間和特定的地方進行互聯(lián)網(wǎng)連接。以前大家都是在網(wǎng)吧或者工作的地方,現(xiàn)在大家通過手機時時刻刻都能連到互聯(lián)網(wǎng),所以整個過往的二十年是隨著設備的發(fā)展、產(chǎn)業(yè)的發(fā)展、信息產(chǎn)業(yè)的發(fā)展而演進的。
伴隨著過往二十年發(fā)展,騰訊在過去二十年里做了什么呢ai未來發(fā)展方向和趨勢?實際上在每一個時代,騰訊都有一款重量級的產(chǎn)品。
在最早的溝通時代,上世紀九十年代,我們有了QQ。QQ目前是世界上同時在線人數(shù)最多的應用,已經(jīng)達到兩億人同時在線;在2000年初的時候,QQ空間誕生,目前日上傳照片數(shù)超過五億張,這個規(guī)模如果跟世界上最大的社交網(wǎng)絡Facebook相比,差不多是同一個量級。
然后在移動互聯(lián)網(wǎng)時代,大家現(xiàn)在都知道的一個產(chǎn)品就是微信,這款產(chǎn)品不光是簡單的應用,還是一個超級的APP,它不僅解決了溝通問題,還解決了社交、分享的問題,還包括線下支付、線下打車,甚至醫(yī)院掛號看病,交水電費等等一系列功能都在這一個軟件上面實現(xiàn)。實際上,騰訊的這三款產(chǎn)品在世界上來講都是領先的。
從整個發(fā)展史來看,我們可以看出過往的發(fā)展史是從窄帶到寬帶,到移動互聯(lián)網(wǎng)時代,它猶如生物進化一樣,從早期的單細胞到多細胞到最后的智能。今年來講這個智能會更加的廣義了,不僅僅是智能終端,大家更多討論的智能是AI。
2016年正好是AI發(fā)展六十周年,所以在去年AI也爆發(fā)起來。包括我剛剛在跟很多嘉賓聊的時候說,騰訊是很低調(diào)的。很多人問我騰訊有沒有做AI?怎么從來沒有向外宣傳呢?實際上騰訊有自己的AI部門,從2016年4月份開始,騰訊成立了自己的部門,目前已經(jīng)有30多個科學家,90%以上的人都是博士學歷以上,絕大多數(shù)人都是海外回來。他們都是從世界最頂級學府引進的人才,包括斯坦福、加州伯克利、康奈爾、麻省理工、哥倫比亞大學等等這些學校。
目前在騰訊,我們已經(jīng)組織了一個AI團隊,而且規(guī)模還在擴張。騰訊的AI可能不像其它公司的AI讓人那么了解,比如說谷歌的AI,很多人都知道他們在做圍棋,包括他們出來很多的產(chǎn)品,比如他們的google brain等等;包括像百度,他們有無人車,有度秘等一些產(chǎn)品;包括Facebook,它做了很多圖像上面的東西。但騰訊的AI一直沒有對外宣傳,今天我也跟大家分享一下,騰訊在AI上面的一些考慮。
實際上騰訊的AI主要是基于四個垂直領域,計算機視覺、語音識別、自然語言處理和機器學習,這四個領域基本上涵蓋了當今整個AI基礎研究領域的方方面面,這是四個基礎的研究領域。
然后我們還提出了四個專屬的研究方向,這是結(jié)合整個騰訊公司來進行的。我們提出了內(nèi)容AI,比如個性化推薦,有基于內(nèi)容類的和搜索類的。另外還有我們的社交,包括剛剛說的QQ空間,它也是一個社交平臺,所以在社交AI上面我們會面向于社交的能力去提供AI能力,包括聊天機器人,包括智能助手,都會在這個方向上去研究。
另外一個方向,我覺得是跟全世界其他所有的公司不太一樣的一個AI方向,大家可能會問我,也有做圍棋的AI,但是它只是一個簡單的圍棋,它不會有太多的游戲,但對于騰訊來講,我們會在游戲里面引入更多AI能力,實際上這個想像空間是非常大的。大家試想一下,會不會有一天,LOL 也會有個AI可以參加這種世界競賽,跟人對打。
大家知道現(xiàn)在騰訊有一款很受歡迎的手游叫做“王者榮耀”,如果把這里面的能力提升,是不是可玩性、樂趣性就會更多,對于騰訊來說這一塊也是很關注的。除此之外我們還會提供我們很多工具類的AI,這里面我們就會把這種能力開放出來,包括人臉識別的能力,語音識別的能力,自然語言處理的能力等等,還包括我們在學習平臺的能力。所以說從目前來講,整個騰訊研究AI的基礎領域是四個,然后我們的方向也是四個。
剛剛是講騰訊在過往二十年產(chǎn)業(yè)發(fā)展中的情況,以及我們在AI上面的布局和考慮,更多的是AI的希望,現(xiàn)在我來講一下AI方面的隱憂是什么。
AI不是一個新的概念,發(fā)展了六十年,在這六十年里AI一直有很多的起起落落,在去年突然一下大爆發(fā)了,一直延續(xù)到現(xiàn)在。像從1956年的會議開始,AI這個名詞就開始出現(xiàn),中間它經(jīng)過了很多起起落落,比較有名的,我相信大家知道,九十年代的IBM打敗了卡斯帕羅夫。IBM也有一款基于知識圖譜的知識問答類的,在危險邊緣的挑戰(zhàn)賽里面取得了冠軍。大家可能記得最清楚的一件事情,還是去年AlphaGo打敗了世界冠軍,韓國的李世石,表明在圍棋這個最古老、最復雜的游戲上面, AlphaGo的智能已經(jīng)超越了人類。
當然整個發(fā)展史里面也有很多技術方面的演進,比較有代表性的就是2006年,在機器學習上面真實的突破,帶來了整個AI在發(fā)展方面極速的提升。為什么這一次AI會讓大家有這么大的期待,或者有這么大的關注呢?我覺得最主要的原因是這一次AI的底層算法,在深度學習上面進行了有效突破。
所以使得這次AI的發(fā)展從2012年開始,整個學習的方法,不像傳統(tǒng)的方法。就跟早期的人類想學飛翔,原來的方法是粘上羽毛,像鳥一樣,真正的飛翔最后的原理是要通過空氣動力學去解決飛翔的原理,這就是深度學習的一個思想。之所以現(xiàn)在能在很多方面、很多應用上面進行突破,實際上本身是掌握了它內(nèi)在的這種方法,而不是表面的方法,所以在這個上面,方法的研究方面我覺得是重要的。
第二個是模型上的提升,剛才我說了,AI的發(fā)展有六十年,機器學習在八九十年代也非?;?,當時有一個叫SVM,它已經(jīng)是非常厲害的一種機器學習的算法。當它達到幾億、幾十億規(guī)模的時候,實際上它的計算能力就會急劇下降,做一個非常復雜的復合函數(shù)去描述這種方式,如果它通過Deep多層連接,它達到一個指數(shù)層倍的關系,描述十億可能我們只需要三層一千個節(jié)點的連接,就能構(gòu)建十億個特征出來。所以從本身來講,模型上的提升也是深度學習的突破。
另外在數(shù)學上面,就是BP問題的解決,反向傳播的問題。在數(shù)學理論上進行反向傳播是一個非常復雜的問題,在神經(jīng)網(wǎng)絡里面當一個東西在傳遞很多層網(wǎng)絡的時候,我們知道當它往回反向收斂的時候,我們都要去逼近最優(yōu)值,但是當層數(shù)太多的時候,會發(fā)生一個梯度消失或者梯度膨脹的問題,通過一些數(shù)學理論,可以很好解決這種問題,所以在數(shù)學理論上面,建立了一個比較好的基礎。
正因為這三方面的優(yōu)勢,使得在AI的浪潮里面,機器學習才會如此火。而且我堅信這次浪潮會持續(xù)很久。在1990年到2000年左右,整個傳統(tǒng)的淺層機器學習的學習方法,有一個下降過程,但是2000-2010年這十年,在方法上面,在模型上面可能都沒有太大的發(fā)展,但突然在2012年左右,微軟研究院最開始在工業(yè)界把機器學習用到語音識別里面去,取得了極大性的突破,急劇又進行提升,所以整個過程機器學習的能力的確是在過往的五年當中,發(fā)展非常快的。
講了很多機器學習的方面,剛剛說的快速發(fā)展,它的方法很好,模型也很好,數(shù)學算法也在突破,但是現(xiàn)狀是什么呢?就剛剛我說的,今天我談的話題是AI期待很大,期待太大了,為什么會這么講?作為一個從業(yè)者,我認為AI上面還是有很多的東西,可能需要提出來,還有很多的局限性。
第一個就是本身深入學習的能力,就是我們說的AI跟人去相比,它有多大的差距。實際上我們發(fā)現(xiàn)現(xiàn)在所有的機器學習的方法,不管這個方法提出來有多么的新,它的學習過程都是要從頭開始學,要把數(shù)據(jù)重新進行一次訓練的過程。但這跟人的學習能力相比確實有很大的差距,人有很多的智能是與生俱來的,就像小孩剛出生,不需要多長時間就知道這個世界是三維的,當你把一個東西放在放在電視機的后面,他知道在電視機后面有一個東西,這些能力是與生俱來的,這個是跟生物的進化是相關的。所以靈長類的動物跟單細胞動物相比,肯定是有與生俱來的能力。但是目前深度學習方法很遺憾,我們不管提出了多么優(yōu)秀的模型,可能都要重新開始學,這跟人的學習能力相比,是一個非常大的缺陷。
第二個就是我們不管有多么好的學習能力,不管有多么好的神經(jīng)網(wǎng)絡模型,它本質(zhì)上的問題還是通過算力,計算能力去解決大數(shù)據(jù),更多的大數(shù)據(jù),更大的計算能力去做更好的融合的過程。過往是整個硬件發(fā)展,是順從了摩爾定律發(fā)展,發(fā)展非常之快,但是在未來的更多的參數(shù)下面,我們還有沒有這種能力,達到計算的效果,這要打上很大的問號。
比如說2006年提出來的Alexnet網(wǎng)絡模型,到后面劍橋大學提出來的VGGnet,再到后面谷歌提出來的Googlenet,再到2015年神經(jīng)網(wǎng)絡Resnet,每一次新模型的提出都是把模型的層數(shù)加入更多,神經(jīng)單元更復雜,訓練結(jié)果更長,得出來的結(jié)果也最優(yōu),但是本身這種方法是不是還能像原來的方法一樣可持續(xù),這也要打一個很大的問號。另外,如果我們要解決認知的問題,那差距就更大了。人的語言是一個序列問題,這個語言序列問題如果要計算的話,這個算力是無論如何解決不了的。人可以很容易在對話當中,回溯到一個很長時間語句的某個片段的關鍵詞里面,但是在機器里面它卻不一定做到這個,雖然我們也在最早的模型形成到現(xiàn)在長短記憶單元的模型,到后面的帶有注意力的模型,但是總體來講,這種模型的演進都還跟人相比是非常復雜的,是遠不如人的。比如說那天我看到一個對話,是三個人在對話,兩個人在聊,中間聊到去哪兒吃飯,突然有人問太陽呢?聊天者知道這是描述太陽隊的,因為前面很早之前有人在聊,湖人跟快船的話題,突然來個太陽大家就知道,但是機器基本上是沒辦法識別的?!跋奶炷艽┒嗌俅┒嗌?,冬天能穿多少穿多少”,兩句基本上一樣,但是前面去描述,把少給突出來了,后面把冬天多顯出來。
第二個例子我講的是語音識別,我看了一個笑話,語音識別很難搞,“您好,方便面試嗎?”我在重復這句話的時候,我都不知道自己在講方便面試嗎,還是方便面是嗎,的確這是一個非常難的問題。但是人的理念里有很多東西,在進行反問的時候,再慢慢把這個東西帶出來。所以說目前的AI情況,在圖像里面,包括說人臉做的多么厲害,但實際上在很多的約束條件下,正臉不能側(cè)臉去做,就是完全側(cè)臉是完全不可能的,或者說它戴帽子可能也比較難,所以它是在很多約束條件下面,達到了人臉識別。此外,語音識別也是在很安靜的情況下,比如噪音比較小,沒有風噪、車噪的問題,可能機器在聽語音識別的時候會識別出來一個比較好的效果。但跟人相比,這完全不是問題,包括多人的問題,語音跟蹤的問題,所以我剛剛說的AI的感知能力,它跟人基本的能力相比還有很大差距,更別說它在認知方面,在NLP這種語意方面。
所以在整個AI上面,隱憂我覺得是我們期待太高了,我們要回歸現(xiàn)實,AI現(xiàn)在的能力剛剛起來,但是這個趨勢很好。未來AI發(fā)展方向是什么呢?我覺得AI跟人,包括機器學習跟人的能力上面有些差距,怎么去補齊差距呢?第一個我覺得跟人相比要創(chuàng)造,我們現(xiàn)在所有都是基于大數(shù)據(jù),這些數(shù)據(jù)從何而來,這是非常重要的。這個數(shù)據(jù)現(xiàn)在是傳統(tǒng)的獲得而來,但更多的數(shù)據(jù)是本身能創(chuàng)造出來,包括AlphaGo已經(jīng)在驗證這樣的問題,通過增強學習去產(chǎn)生人類從未下過的棋,這是一種創(chuàng)造數(shù)據(jù)的能力,通過創(chuàng)造數(shù)據(jù)的能力產(chǎn)生更多的數(shù)據(jù),不一定是人創(chuàng)造了這些,去把這些東西更多的窮盡出來,我覺得在未來,如果在這方面發(fā)展的話,在增強學習方面,我們要進行更多的發(fā)展和突破。
第二個就是舉一反三。什么叫舉一反三,AlphaGo下圍棋能贏世界冠軍,但是它如果改下其他的棋,它的下棋方法就不行了。因為它不會進行推導。當我們驗證大數(shù)據(jù)和一個非常好的效果的時候,我們數(shù)據(jù)量很小的時候,怎么把原來的模型遷移過來,這是非常重要的研究方向。
第三個方向和人相比就是歸納總結(jié)。人是非常能進行總結(jié)的,包括像牛頓的第一定律、萬有引力,都是人總結(jié)出來的,還包括很多公理。但是目前機器學習是沒辦法進行歸納總結(jié)的,它并沒有提煉出公理和定律的關系。所以未來我們要在這方面歸納總結(jié),特別是深度學習上面,分類問題是有目標去學習的,但聚類問題沒有目標的時候,我們怎么把它聚好。所以在這三個能力上面,我相信這是我們未來在AI上面要進行提升的。
第二個就是在整個數(shù)學理論發(fā)展方向上,剛剛講了很多機器學習通過數(shù)據(jù)方法,從傳統(tǒng)的淺層學習里面,通過統(tǒng)計學的概率論,完備的統(tǒng)計學概率論理論來支撐它,說到求這種函數(shù)極限的問題,我們有很多完備的數(shù)學公式去證明,一定能解決它的問題,但是恰恰在深度機器學習上面,雖然前面我們用了隨機去找局部最優(yōu),但是它只是一個框架,我們在很多上面,還是一個啟發(fā)式的約束,包括我們的初始化參數(shù)多少,包括我們學習率是多少,這都是有啟發(fā)性的。在未來如果機器學習要繼續(xù)往下走的話,我們在數(shù)學理論上面一定要有強大的支撐,特別是傳統(tǒng)的機器學習,數(shù)學完備型,要遷移到我們深度機器學習上來。
大家知道神經(jīng)網(wǎng)絡的提出,很多來自于原來的腦神經(jīng)學科和生物系統(tǒng),在這個上面,我相信未來AI的發(fā)展要引入更多,不光是數(shù)學學科、計算機學科,還要引入腦學科神經(jīng)去,因為腦的神經(jīng)結(jié)構(gòu)就是,剛剛我提到了殘差神經(jīng)網(wǎng)絡,已經(jīng)連接腦神經(jīng)的概念了,進行跨層連接,達到一個非常好的效果。我希望未來可能在交叉學科上面,包括剛剛說的生物、腦神經(jīng),包括哲學都要去引進來,這樣整個AI才能有更多完備型的發(fā)展。
另外一個就是,在當今世界,我覺得是對所有公司來講,對所有人來講,AI都應該是平等的,所以我們一定要開放。比較好的是,在AI領域,當今世界所有的大公司都在做,包括騰訊也會做,我們看到很多例如谷歌的Open,包括FaceBook也Open了非常多的網(wǎng)絡模型,包括現(xiàn)在很火的OpenAI等等這些大的這種機器學習,AI的這種先行者,騰訊在未來也會去進行很多Open,讓更多的人來參與進來,進行模擬測試。未來AI的發(fā)展,我相信第一方面就是在能力上面,要跟人去匹敵的話,要進行提升,第二個是整個學習的完備型,數(shù)學完備,學科完備上要進行豐富,第三個就是所有的這種大的公司,AI的參與者,我們要以更加開放的心態(tài)去面對AI,這才是AI的未來。
聲明:本文言論不代表新財富觀點,也不構(gòu)成任何操作建議。請讀者僅做參考,據(jù)此入市,請自行承擔全部責任。市場有風險,投資需謹慎。文章版權歸原作者所有,如有侵權,請聯(lián)系我們進行刪除。
評論列表
還沒有評論,快來說點什么吧~