新壹科技發(fā)布“新壹大模型”實(shí)現(xiàn)AIGC業(yè)務(wù)全鏈路打通
7月27日消息,,新壹科技今日發(fā)布了國內(nèi)首款聚焦視頻的大模型“新壹視頻大模型”,,以及AIGC視頻生成平臺“秒創(chuàng)視頻創(chuàng)作平臺”,首款基于商用的數(shù)字人平臺“新壹數(shù)字人平臺”,,此外,,還發(fā)布了國內(nèi)首款明星數(shù)字人祝福視頻制作產(chǎn)品“秒祝”,。
新壹科技創(chuàng)始人,、董事長韓坤在會上表示,由于沒有從實(shí)際場景出發(fā),,導(dǎo)致大部分通用大模型的實(shí)用性并不強(qiáng),,難以真正重塑實(shí)際的生產(chǎn),。我們需要建立一個(gè)連接AI技術(shù)能力和垂直場景需求的大模型,能夠提供釋放生產(chǎn)力的能力,,并創(chuàng)造更多實(shí)際價(jià)值的垂直場景大模型,。
為此,新壹科技發(fā)布國內(nèi)首個(gè)聚焦在視頻領(lǐng)域的大模型——新壹視頻大模型,。新壹視頻大模型是以視頻生成為核心的多模態(tài)AIGC模型,。基于深度學(xué)習(xí)海量視頻樣本,,新壹視頻大模型擁有了從腳本生成,、素材匹配、智能剪輯配音到數(shù)字人播報(bào)的AI全流程視頻生產(chǎn)能力,。
新壹視頻大模型具備多模態(tài)感知,、實(shí)時(shí)學(xué)習(xí)、自迭代及多場景交叉推理的核心能力,。能夠處理多模態(tài)的輸入信息,,可以理解文字的含義,識別圖像的內(nèi)容,,感知音樂的情緒,,基于對內(nèi)容深度準(zhǔn)確的理解,生成視頻,。
新壹視頻大模型采用了自監(jiān)督學(xué)習(xí)方案,,會觀察和學(xué)習(xí)大量的視頻數(shù)據(jù),通過分析視頻的結(jié)構(gòu),、內(nèi)容,、風(fēng)格等多個(gè)維度,自我理解和把握視頻制作的規(guī)則和邏輯,。從而在處理視頻制作任務(wù)時(shí),,能有出色的表現(xiàn)。
新壹視頻大模型能跨場景進(jìn)行知識遷移與關(guān)聯(lián),,選擇合適素材,,調(diào)整視頻風(fēng)格,,生成滿足創(chuàng)作者需求且質(zhì)量高的視頻,;其可面向行業(yè)級的垂直場景對新壹視頻大模型做定向訓(xùn)練。
韓坤表示,,新壹視頻大模型不僅僅是一個(gè)工具,,更是一個(gè)理解用戶、理解視頻,、理解美學(xué)的藝術(shù)家,。新壹科技將以“釋放AIGC視頻生產(chǎn)力”作為公司新的定位,,這也是公司要達(dá)成的首要目標(biāo)。
同時(shí),,新壹科技還現(xiàn)場演示了秒創(chuàng)視頻創(chuàng)作平臺的操作全過程,。據(jù)悉,秒創(chuàng)試運(yùn)營半年多以來,,已經(jīng)積累了200多萬的用戶,,每天產(chǎn)出超過10萬分鐘視頻。
新壹科技還發(fā)布了數(shù)字人平臺,。通過多模態(tài)合成AI技術(shù),,該平臺可以將真人錄制的視頻和音頻素材,快速生成2D寫實(shí)數(shù)字人,�,;谛乱家曨l大模型, 24內(nèi)小時(shí)即可完成一個(gè)數(shù)字人的訓(xùn)練,。
韓坤表示,,接下來,新壹科技將推出更多的垂直場景服務(wù)平臺和產(chǎn)品,,比如為政府政務(wù),、金融保險(xiǎn)、適老養(yǎng)老,、智能交互數(shù)字人以及游戲等垂直場景提供服務(wù),,目前已經(jīng)有解決方案和產(chǎn)品正在落地。
目前,,新壹科技的AI生成能力已覆蓋文本,、圖像、音視頻等內(nèi)容模態(tài),,是國內(nèi)AIGC領(lǐng)域布局最為全面,、技術(shù)最成熟的公司之一,已經(jīng)實(shí)現(xiàn)從大模型到平臺服務(wù)再到產(chǎn)品服務(wù)落地的AIGC業(yè)務(wù)全鏈路打通,。(靜靜)