精品无人区无码乱码毛片国产_性做久久久久久免费观看_天堂中文在线资源_7777久久亚洲中文字幕

首頁 資訊正文

百度、騰訊、智譜AI都投了! 這家大模型初創(chuàng)公司什么來頭?

  近日從天眼查APP獲悉,上海無問芯穹智能科技有限公司(以下簡稱“無問芯穹”)發(fā)生工商信息變更,新增多名股東。值得注意的是,其新增的股東包括百度旗下的北京百度網(wǎng)訊科技有限公司、騰訊完全持股的廣西騰訊創(chuàng)業(yè)投資有限公司、以及北京智譜華章科技有限公司。

  以上幾家企業(yè)均為目前國內(nèi)最受關(guān)注的科技巨頭或大模型創(chuàng)業(yè)公司。

  目前,無問芯穹注冊資本由119萬元增至約152萬元,同時也新增了多名主要人員。

  紅杉打頭陣,騰訊、百度、智譜AI等入局

  值得注意的是,目前無問芯穹并未官宣過融資。

  結(jié)合公開信息,無問芯穹已完成三輪融資,均未對外公布,領(lǐng)投方為紅杉中國。此前的其他投資方包括徐匯資本、礪思資本、啟明創(chuàng)投等機構(gòu)。

  根據(jù)工商變更記錄顯示,早在今年6月,即無問芯穹創(chuàng)立的第二個月,紅杉就通過旗下紅創(chuàng)科興(寧波)科技有限公司(下稱:紅創(chuàng)科興),出現(xiàn)在了北京無問芯穹的投資人列表,此次變更為“退出”,或為后續(xù)轉(zhuǎn)向上海無問芯穹做準備。

  隨后在今年9月,在目前無問芯穹的主體——上海無問芯穹中,紅創(chuàng)科興初次現(xiàn)身,并已是該公司的投資人。與紅杉同時入股的還包括金沙江、徐匯資本、無限基金。

  最新持股情況顯示,上海無問長庚企業(yè)管理合伙企業(yè)(有限合伙)為無問芯穹的大股東,直接持股約15.220%。

  而紅杉共持有無問芯穹約10.722%股份,系最大外部機構(gòu)股東;此外,徐匯資本持股約2.315%,金沙江與無限基金均持股約1.286%。

  短短兩個多月后,無問芯穹于11月30日進行了第二次投資人(股權(quán))變更,股東新增騰訊、百度、經(jīng)緯、真格、啟明創(chuàng)投、智譜AI等。

  最新持股情況顯示,騰訊、百度、經(jīng)緯、真格的持股比例及最終受益股份均為1.952%;智譜AI持股比例及最終受益股份則均為0.651%。

  清華系大模型團隊,“上陣師生兵”2.0

  公開資料顯示,無問芯穹成立于2023年5月,主要瞄準大模型算法向大算力芯片的高效部署問題,經(jīng)營范圍包括人工智能理論與算法軟件開發(fā)、人工智能基礎(chǔ)軟件開發(fā)、人工智能應(yīng)用軟件開發(fā)等。

  無問芯穹的創(chuàng)始人是清華大學(xué)電子工程系系主任汪玉教授,公司法定代表人曾書霖博士也是汪玉的學(xué)生。

  根據(jù)公開資料,曾書霖2018年本科畢業(yè)于清華大學(xué)電子工程系,而后繼續(xù)攻讀博士學(xué)位,主要研究方向為軟硬件協(xié)同設(shè)計、深度學(xué)習(xí)加速器和FPGA(現(xiàn)場可編程門陣列)硬件虛擬化。值得注意的是,曾書霖的導(dǎo)師是清華大學(xué)電子系教授、系主任汪玉。

  無問芯穹也讓再次踏上芯片創(chuàng)業(yè)道路的汪玉重新出現(xiàn)在人們的視線當(dāng)中。

  據(jù)悉,汪玉于1998年入學(xué)清華,本碩博均在清華,自2007年開始留校任教。他是清華電子工程系首位80后系主任,也是該系創(chuàng)辦以來第二年輕系主任。汪玉長期從事智能芯片、高能效電路與系統(tǒng)研究,曾多次在頂會拿下最佳論文獎,共發(fā)表IEEE/ACM雜志文章50余篇,谷歌學(xué)術(shù)引用17000余次。

深鑒科技創(chuàng)始團隊,右二為汪玉

  這不是汪玉教授第一次實踐“上陣師生兵”的AI產(chǎn)學(xué)結(jié)合,此前他曾創(chuàng)辦AI芯片公司深鑒科技。

  2016年1月,以汪玉教授為負責(zé)人的深度學(xué)習(xí)處理器項目,通過清華大學(xué)電子信息學(xué)院論證并獲得支持。隨后,項目團隊以知識產(chǎn)權(quán)轉(zhuǎn)化入股、創(chuàng)立AI芯片公司深鑒科技,進行產(chǎn)業(yè)化運營。其學(xué)生姚頌、單羿是深鑒科技創(chuàng)始成員。

  深鑒科技曾推出多款核心產(chǎn)品,包括人臉識別模塊、視頻結(jié)構(gòu)化解決方案、深度學(xué)習(xí)芯片等。先后獲得多輪融資,投資方包括高榕資本、金沙江創(chuàng)投、賽靈思、三星風(fēng)投等知名機構(gòu)。2018年,深鑒科技被全球最大的FPGA廠商賽靈思收購,隨后賽靈思也被美國芯片巨頭AMD所收購。因此,深鑒科技成為國內(nèi)商業(yè)化發(fā)展最成功的AI芯片公司。

  在今年轟轟烈烈的大模型創(chuàng)業(yè)熱潮中,此前已成功“上岸”的汪玉再次攜手學(xué)生創(chuàng)業(yè),創(chuàng)辦了無問芯穹。

  據(jù)介紹,無問芯穹以無穹大模型能效優(yōu)化工具包為基礎(chǔ),整合國產(chǎn)芯片算力, 構(gòu)建統(tǒng)一算力底座。在AI大模型多樣、算力多樣的分散行業(yè)格局下,構(gòu)建連接模型和算力的M*N中間層。通過模型層、系統(tǒng)層、硬件層的跨層協(xié)同優(yōu)化,發(fā)揮各類算力硬件的效率,助力大模型應(yīng)用落地。

  具體而言,無問芯穹主要提供智算云服務(wù)、智算一體機、大模型能效優(yōu)化工具包等解決方案。同時,公司還自研了行業(yè)大模型,包括政務(wù)大模型、法律大模型、證券大模型等。

  解決什么痛點?無問芯穹商業(yè)化副總裁李楓在9月及11月份的相關(guān)活動中做過詳細分享——《加速大模型落地最后一公里》。

  據(jù)李楓介紹,為了解決模型和算力之間的瓶頸,無問芯穹致力于提供大模型軟硬一體化自動化優(yōu)化方案。向上,服務(wù)多家大模型算法企業(yè);向下,聯(lián)動多家國產(chǎn)芯片公司。產(chǎn)品上,實現(xiàn)了大模型在多種硬件上的M×N一鍵部署平臺,降低大模型的使用門檻,讓模型部署越快越好,真正成為AI 2.0時代大模型的基礎(chǔ)設(shè)施。

  為了助力 AI 2.0 時代大模型落地,無問芯穹著力于解決四個痛點需求。

  1.支持長文本或大輸入:比如之前支持 2K token 的模型,可以用快速推理和訓(xùn)練,使它支持 32K token,就可以做好例如專業(yè)長文本的信息檢索、生成、會議聊天助手等應(yīng)用;

  2.提升性價比:把語言和多模態(tài)生成模型部署到消費級顯卡,甚至手機等終端設(shè)備上,讓廣大客戶用得起;

  3.垂直領(lǐng)域適配:用大模型通用能力幫助各行各業(yè)的人們提升體驗和效率;

  4.一鍵式部署:讓大模型能低人力成本被部署到各種場景,讓每個工廠、學(xué)校、家庭甚至個人都能用到它的能力。

  無問芯穹刷新大模型優(yōu)化記錄

  大語言模型(LLM)的風(fēng)靡,其應(yīng)用落地成為各行各業(yè)關(guān)注的重點。然而,要降低其落地成本,提升LLM推理速度是關(guān)鍵。

  據(jù)機器之心報道,11月3日,無問芯穹、清華大學(xué)和上海交通大學(xué)的聯(lián)合團隊提出了一種LLM推理加速引擎——FlashDecoding++,該引擎同時支持包括NVIDIA和AMD的GPU。相較于斯坦福大學(xué)等團隊研究者近期提出的FlashDecoding,該引擎推理速度提升明顯,例如在NVIDIA A100上相較FlashDecoding提速37%,在NVIDIA和AMD的多GPU后端上相較Hugging Face實現(xiàn)加速2~4倍。

  目前,關(guān)于FlashDecoding++的介紹論文已被發(fā)布在開放獲取平臺arXiv上。(論文地址:https://arxiv.org/pdf/2311.01282.pdf)

  據(jù)測算,OpenAI的ChatGPT線上推理的成本高達每天數(shù)百萬美元。如何提升LLM推理速度并降低其成本,成為近期產(chǎn)業(yè)界和學(xué)術(shù)界的熱點。目前,全球已有來自包括斯坦福大學(xué)、NVIDIA、微軟、加州大學(xué)伯克利分校、商湯科技等的研究團隊關(guān)注該問題并提出相應(yīng)方案。

  大模型的推理任務(wù)一般為根據(jù)輸入的文字(token),計算生成包括但不限文字的新內(nèi)容。在此過程中,LLM的推理計算可分為Prefill和Decode兩個階段,其中Prefill階段通過理解輸入文字生成第一個token,Decode階段則順序輸出后續(xù)token。在這兩個階段,LLM推理的計算可被分為注意力計算和矩陣乘計算兩個主要部分。

  FlashDecoding++的核心思想是,通過異步方法實現(xiàn)注意力計算的真正并行,并針“矮胖”矩陣乘優(yōu)化加速對Decode階段計算,進而實現(xiàn)加速推理速度的目標。實踐表明,通過加速Prefill階段的首個token生成速度以及Decode階段后續(xù)token的生成速度,F(xiàn)lashDecoding++可以在長、短文本的生成上均取得加速效果。目前,F(xiàn)lashDecoding++可以實現(xiàn)NVIDIA與AMD等多款GPU后端的LLM推理加速。

  據(jù)悉,該研究的三位共同一作分別是無問芯穹首席科學(xué)家、上海交通大學(xué)副教授戴國浩博士,無問芯穹研究實習(xí)生、清華大學(xué)碩士生洪可,無問芯穹研究實習(xí)生、上海交通大學(xué)博士生許珈銘。通訊作者為上海交通大學(xué)戴國浩教授和清華大學(xué)電子工程系主任汪玉教授。

  目前,F(xiàn)lashDecoding++ 已被集成于無問芯穹的大模型計算引擎“Infini-ACC”中。在Infini-ACC的支持下,無問芯穹正在開發(fā)一系列大模型軟硬件一體化的解決方案,其中包含大模型“無穹天權(quán)”、軟硬件一體機等。

  “現(xiàn)在大家都在做各種各樣的非常厲害的芯片,但是,怎樣去把模型更好的部署在這些芯片上,讓做應(yīng)用開發(fā)等領(lǐng)域人員不會花費額外的代價,其實會極大推動大模型研發(fā)。無問芯穹就是想要推動大模型技術(shù)設(shè)施發(fā)展進入各行各業(yè),這也是我們努力的方向?!蓖粲窠衲?月表示。

  大模型算力成本高昂,芯片投資頗受關(guān)注

  大模型是今年資本市場中的寵兒,大模型的訓(xùn)練與優(yōu)化高度依賴算力資源,也帶動了芯片賽道的爆火。由于芯片成本高昂,在需求快速拉動的情況之下,國內(nèi)外的科技巨頭及大模型創(chuàng)業(yè)公司,都在研發(fā)AI芯片補齊自己的能力或是加大芯片領(lǐng)域的投資力度。

  國際方面,微軟在11月舉行的年度IT專業(yè)人士和開發(fā)者大會Ignite上推出了兩款自研芯片——云端AI芯片微軟AzureMaia100和服務(wù)器CPU微軟AzureCobalt100。據(jù)介紹,Maia100是微軟為微軟云中大語言模型訓(xùn)練和推理而設(shè)計的第一款A(yù)I芯片,Cobalt100是微軟為微軟云定制開發(fā)的第一款CPU,也是微軟打造的第一款完整的液冷服務(wù)器CPU。據(jù)微軟透露,OpenAI已率先試用了Maia100芯片。

  為減少對英偉達芯片的依賴和解決算力成本高昂的問題,OpenAI也在芯片領(lǐng)域動作頻頻。據(jù)外媒近日報道,OpenAI在2019年就與芯片初創(chuàng)企業(yè)RainAI簽署了一份意向書,在該公司的芯片上市后將斥資5100萬美元購買這些芯片。RainAI由OpenAI的創(chuàng)始人兼首席執(zhí)行官奧特曼親自投資,投資額已超過100萬美元。早在10月,市場上就有消息傳OpenAI擬自研AI芯片,計劃收購相關(guān)公司。

  國內(nèi)方面,許多互聯(lián)網(wǎng)巨頭已經(jīng)參與芯片研發(fā)。與此同時,芯片投資領(lǐng)域也頗受關(guān)注,記者梳理發(fā)現(xiàn),近期已有多個AI芯片創(chuàng)企獲得融資。9月底,專注人工智能云端算力產(chǎn)品的燧原科技宣布完成D輪融資,融資規(guī)模達到20億元人民幣,成為年內(nèi)國產(chǎn)AI芯片領(lǐng)域的單筆最大融資。投資方包括上海國際集團旗下子公司及產(chǎn)業(yè)基金、騰訊、美圖公司、武岳峰科創(chuàng)、紅點中國等多家新老股東。

  11月27日,視覺處理AI芯片及解決方案初創(chuàng)企業(yè)銀牛微電子在官方平臺發(fā)文,稱公司已完成超5億元A輪融資。聯(lián)合領(lǐng)投方為合肥產(chǎn)投和精確資本,津西資本、天娛數(shù)科及部分老股東跟投,募集資金主要用于加速新一代芯片及模組研發(fā)、新領(lǐng)域產(chǎn)品解決方案研發(fā)以及團隊發(fā)展建設(shè)等。

  據(jù)36氪報道,肇觀電子日前完成2億人民幣D輪融資,由華山資本領(lǐng)投,資金將用于下一代芯片和模組的研發(fā)和迭代。肇觀電子于2016年在上海成立,聚焦計算機視覺和AI端側(cè)芯片及模組研發(fā),服務(wù)工業(yè)、機器人、汽車、消費、安防等場景,致力于賦予所有的智能設(shè)備視覺能力。

  中信證券近期的一份研報指出:“展望2024年,我們認為AI將開始全面落地,持續(xù)驅(qū)動科技產(chǎn)業(yè)投資。站在投資維度,我們判斷算力端將迎來重要投資機遇:一方面,光模塊、服務(wù)器等在AI驅(qū)動下需求將持續(xù)增長;另一方面,半導(dǎo)體設(shè)備、AI芯片等在海外管制下發(fā)展緊迫性增強?!?/p>

責(zé)任編輯:張薇

分享: