5月6日,科大訊飛發(fā)布了訊飛星火認知大模型,并在發(fā)布會上展示了該產(chǎn)品的七大核心功能,包括語音輸入、實時交互、文本生成、語言理解、知識問答、邏輯推理和數(shù)學能力。目前,星火認知大模型已經(jīng)可以應用于四個領域:教育、辦公、汽車和數(shù)字員工。
在被問到為何產(chǎn)品姍姍來遲的時候,科大訊飛董事長劉慶峰表示,大模型的競爭關(guān)鍵不在于發(fā)布日期那一朝一夕,更重要的是,要今早落地轉(zhuǎn)化為產(chǎn)品,解決用戶的剛需,實現(xiàn)自我造血。
正視數(shù)據(jù)算力差距,用國產(chǎn)化降低不確定性
目前,以GPT為首的大模型產(chǎn)品,主要是通過機器的不斷學習去實現(xiàn)人工智能的進化。期間需要原始的數(shù)據(jù)資料,通過各家的算法,調(diào)用GPU的算力去執(zhí)行。
對于國內(nèi)廠商而言,要打造一款大模型產(chǎn)品,由于OpenAI的GPT珠玉在前,算法目前來看并不會是瓶頸,而數(shù)據(jù)和算力會是相對的短板。
數(shù)據(jù)方面,由于中文互聯(lián)網(wǎng)起步較晚,且微信、頭條、微博、百度各家的數(shù)據(jù)較為封閉,導致可用于大模型訓練的數(shù)據(jù)量不多。
從數(shù)據(jù)質(zhì)量方面,中文互聯(lián)網(wǎng)也沒有優(yōu)勢??拼笥嶏w副總裁、研究院院長劉聰對舉了一個例子:“中文技術(shù)論壇經(jīng)常出現(xiàn)的情況是,一開始都是在討論學術(shù),到最后就變成了吵架。”
對此,劉聰表示科大訊飛目前正在使用中英文混合的數(shù)據(jù)庫,希望能夠?qū)⒂⑽挠袃r值的東西轉(zhuǎn)化成中文資料的增量,借此實現(xiàn)對AI的提升。此外,科大訊飛在教育等行業(yè)已經(jīng)有了多年的積累,相關(guān)數(shù)據(jù)也能夠進一步幫助AI進行訓練。
算力方面,此次科大訊飛與華為、寒武紀、曙光等公司合作,借此實現(xiàn)國產(chǎn)化,降低不確定性。
但劉慶峰也坦言,雖然目前算力方面不會受到國外的限制,但整體與國外相比,存在至少一代的差距。但算力和數(shù)據(jù)是中國廠商共同的的短板,而非科大訊飛一家的短板。
快速落地,形成商業(yè)模式
全球首款搭載大模型的AI學習機:科大訊飛AI學習機T20 Pro
劉慶峰表示,未來大模型的關(guān)鍵并不是算力,而是要把教育、辦公、汽車、數(shù)字員工一類的子模型聯(lián)動起來,形成“1+N”的布局。
其中“1”作為大模型的本身,具備自己的商業(yè)價值,而“N”則是教育、辦公、汽車、數(shù)字員工一類的子模型,可以讓產(chǎn)品更快落地,快速形成商業(yè)模式。隨后不同的任務、不同的數(shù)據(jù)再回歸到1,組成一整個循環(huán)的過程。
據(jù)科大訊飛介紹,目前星火認知大模型的核心團隊在200人以上,外圍團隊2000人以上,另外還有大量負責數(shù)據(jù)標注的人員。
根據(jù)第三方中文通用大模型基準SuperCLUE測試基準的測試顯示,目前科大訊飛星火認知大模型僅次于人類、GPT4和GPT3.5,在眾多大模型中名列第四位,在中國廠商中排名第一。
劉慶峰透露,今年6月9日星火大模型將突破開放式問答,多輪對話能力和數(shù)學能力將再次升級;8月15日,星火認知大模型將突破代碼能力,多模態(tài)交互再升級;10月24日,星火認知大模型通用模型將直接對標ChatGPT,其中中文能力超越后者,英文能力與后者相當。
在討論未來被美國制裁的可能性時,劉青峰表示,他已經(jīng)做好了相關(guān)準備,并積極推動國產(chǎn)替代,前提是產(chǎn)品做得好。
本文標題: 訊飛星火的關(guān)鍵是為了解決用戶的剛需
本文地址: http://www.maiyunbaodan.com/brand/news-6f8e22532.html
內(nèi)容均來源于網(wǎng)絡,錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com
2009-2024 黃頁88版權(quán)所有 京ICP備2023012932號-1 │ 京公網(wǎng)安備 11010802023561號 京ICP證100626
內(nèi)容均來源于網(wǎng)絡,錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com