99re6这里有精品热视频,久久综合九色欧美综合狠狠,国产精品久久久久久无毒不卡,av免费无插件在线观看,欧美放荡办公室videos

  1. 創(chuàng)業(yè)頭條
  2. 前沿領域
  3. AI智能
  4. 正文

不止于大模型 英特爾CPU引領智算新高度

 2024-04-01 15:51  來源:互聯(lián)網  我來投稿 撤稿糾錯

  阿里云優(yōu)惠券 先領券再下單

在算力新時代,從通用計算到智算,CPU可以做更多,價值也更加凸顯。

作為一種基于人工智能(AI)技術的計算方式,其含義既包含了AI,還包含了對高性能算力的要求。

擁抱大模型不容易

ChatGPT的橫空出世拉開了AI大模型的新時代,而近期的文生視頻模型SORA又讓業(yè)界為之激動不已。據了解,Sora所需token(文本處理最小單位)數量相較于文本及圖片模型的推理呈數量級增長。經中信證券簡單估算,對于一個60幀的視頻(約6至8秒),Sora要生成至少約120萬個token,這是相當大的計算量。

科技爆炸的背后需要算力膨脹來匹配,大型AI模型的興起帶來了對智能計算能力的積極需求,于是,我們看到業(yè)界在算力基礎設施方面進行積極布局,芯片需求得到極大釋放,但是現實卻有點不盡如人意。

網上信息顯示,以OpenAI在GPT-3模型為例,該模型擁有1750億個參數,需要龐大算力,訓練成本高達1650萬美元。使用GPT-3開發(fā)的ChatGPT在推論方面的成本更高,每月燒掉4千萬美元 。這不僅大大增加了企業(yè)成本,對地球資源、環(huán)境可持續(xù)發(fā)展性也可能產生影響。

被廣泛應用于人工智能的訓練、推理、科學計算等領域的GPU似乎成為頂流,并且愈發(fā)呈現出“一卡難求”的趨勢。但是對于實際的企業(yè)AI落地應用而言,真的無法低成本擁抱大模型了嗎?業(yè)務場景的需求對AI算力要求幾何?如何挖掘現有算力潛能?

俗話說,“自古華山一條道”,但是對于算力芯片卻不是,特別是對于大語言模型(以下簡稱:LLM)推理,CPU在某些場景下其實更適合。

為什么選擇CPU?

相比GPU,CPU此前在LLM的熱度表現并不算高,業(yè)界往往認為CPU在AI時代已經“過時”。

但事實并非如此。

大模型通常都分為訓練和推理兩個階段,在訓練環(huán)節(jié)需要處理海量數據,因此對算力性能要求較高;但推理階段不僅幾乎貫穿業(yè)務全流程,對算力的要求也沒有那么高,隨著CPU性能的提升,在部分場景下用CPU來完成AI推理工作對企業(yè)來說是更加適合的選擇。

一方面,CPU資源更容易獲取,也不需要導入異構硬件平臺,額外進行相關人才的儲備,更容易實現廣泛部署;另外,充分利用現有IT設施有助于TCO(總體擁有成本)優(yōu)化,以用更低的成本實現更優(yōu)的性能表現。

其次,通過分布式的解決方案,能夠有效解決CPU計算速度的問題。CPU甚至可以支持幾百GB的內存,能夠輕松應付甚至70B的LLM ,而且CPU的特性是通用和靈活,以及在軟件兼容性方面的多年積累,在承載和部署人工智能應用工作負載方面更具優(yōu)勢。

這就是CPU的破局,選擇CPU進行LLM探索逐漸成為企業(yè)的新選擇。

近年來,隨著大模型的迅速發(fā)展,光學字符識別(OCR)技術已成為LLM的重要入口。亞信科技就在自家OCR-AIRPA方案中采用了CPU作為硬件平臺,實現了從FP32到INT8/BF16的量化,從而在可接受的精度損失下,增加吞吐量并加速推理。將人工成本降至原來的1/5到1/9,效率還提升了約5-10倍。

深耕醫(yī)療行業(yè)多年,已幫助多家三甲醫(yī)院推進信息化和數字化建設的衛(wèi)寧健康就選擇與英特爾合作,通過軟硬適配、優(yōu)化模型算法等手段,成功在CPU(第五代至強® 可擴展處理器)上提升了面向醫(yī)療垂直領域的大模型WiNGPT的性能,讓基于它的AI應用的交付、部署和應用更為高效便捷,能在任何一家已使用衛(wèi)寧WiNEX系統(tǒng)的醫(yī)院迅速上崗。

第五代至強® 可擴展處理器每個內核均具備AI加速功能,無需添加獨立加速器,即可處理要求嚴苛的端到端AI工作負載。英特爾® 高級矩陣擴展(英特爾® AMX)為矩陣運算的加速提供了強大支持,可支持BFloat16和INT8兩種數據類型,完全有能力處理要求嚴苛的AI工作負載。

相比同樣內置AMX的第四代至強® 可擴展處理器,得益于自身在微架構和整體性能上的提升,五代® 至強的推理性能提升高達42%。

目前,LLM更多是云端部署,但是由于涉及隱私安全,本地部署LLM的需求也越發(fā)強烈。針對會議摘要、文章總結等離線場景,百億參數的LLM就可以完全勝任,CPU的性能就可以運行,成本優(yōu)勢更加明顯,還能降低部署成本。

更強通用計算,兼顧AI加速

當然,AI不是只有大模型, 英特爾® 至強® 可擴展處理器除了持續(xù)在CPU加速AI這條路上深耕,也一直在持續(xù)挖掘CPU在通用計算領域的價值。

與前一代產品相比,第五代英特爾® 至強® 可擴展處理器有高達1.84倍的平均性能提升,可在進行通用計算時將整體性能提升高達21%,并在一系列客戶工作負載中將每瓦性能提升高達36%。

例如制造領域在高度精細且較為耗時的瑕疵檢測環(huán)節(jié),部分企業(yè)就復用了既有的CPU平臺,構建了橫跨“云-邊-端”的AI 缺陷檢測方案。為了達到更好的應用效果,在使用計算機視覺方案之外,還可以融入深度學習和機器學習的技術,構建三者混合模式的方案。

星環(huán)科技則基于第五代至強® 可擴展處理器推出了Transwarp Hippo 分布式向量數據庫解決方案,實現了約2倍的代際性能提升,可有效滿足大模型時代海量、高維向量的存儲和計算需求。

數據作為AI三駕馬車之一,其重要性自然不言而喻。除了可用作向量數據庫這一種,對于處理數據時候可能涉及的邏輯運算、內存操作,第五代英特爾® 至強® 可擴展處理器也可以提供充足的支持。它可以將壓縮/解壓縮和數據傳輸等資源密集型任務從CPU內核卸載至內置的英特爾® 數據分析引擎,釋放數據分析和數據庫運行的時鐘周期,以提高每秒事物處理量,用戶可以在每臺服務器上擴展容量或運行更多應用。

結合第五代英特爾® 至強® 可擴展處理器更快的內存和更大的三級緩存,英特爾® 存內分析加速器(英特爾® IAA)和英特爾® 數據流加速器(英特爾® DSA)能夠在提高查詢吞吐量的同時,進行數據復制和轉換操作,從而實現內存數據庫、大數據分析和數據倉庫的性能提升。

AI對隱私計算的需求也在增加,英特爾® 可信域擴展(英特爾® TDX)提供虛擬機(VM)層面的隔離和保密性,從而增強隱私性和對數據的管理。在基于英特爾® TDX的機密虛擬機中,客戶機操作系統(tǒng)和虛擬機應用被隔離開來,而不會被云端主機、虛擬機管理程序和平臺的其他虛擬機訪問。

此外,英特爾還在軟件創(chuàng)新方面持續(xù)發(fā)力,以確?,F有的人工智能框架和應用能夠充分發(fā)揮硬件潛力,從而加速行業(yè)的發(fā)展。

英特爾提供了完善的人工智能軟件生態(tài)方案和工具鏈,不僅持續(xù)為主流開源框架PyTorch、TensorFlow等貢獻力量,還提供了多種針對英特爾平臺的優(yōu)化插件,如IPEX(Intel® Extension for PyTorch)、ITEX(Intel® Extension for TensorFlow)等,以及xFT(xFasterTransformer)、OpenVINO™ 工具套件等多種優(yōu)化工具。這些技術可極大地提升AI性能,包括LLM、文字生成圖片Stable Diffusion等,未來的熱門方向——文字生成視頻,同樣能夠從中受益。

IPEX配合PyTorch,支持PyTorch框架下90%的主流模型,其中深度優(yōu)化模型有50個以上??蛻糁灰ㄟ^簡單幾步即可完成BF16混合精度轉換,模型即可在保持精度的同時在CPU上高效部署。

結語

多年來,英特爾一直不遺余力地進行軟硬件創(chuàng)新,為了迎合人工智能時代對算力的渴求,不斷推陳出新,提供更加強大、更加先進的CPU處理器和其他硬件方案。

CPU運行LLM并不是“癡人說夢”,因為CPU在進化一直在進行,得益于硬件級創(chuàng)新和借助軟件充分挖掘硬件性能,英特爾為AI時代的算力基礎設施提供了新的選擇機會。

我想客戶和市場也是樂見其成的,畢竟這是一個雙贏的結果。市場不希望單一的選擇,而是多樣化的選擇。這就像x86的發(fā)展一樣,開放帶來產業(yè)的繁榮。

在生成式AI和LLM狂奔的同時,CPU也在與時俱進,讓自己適配客戶需求和選擇。依托軟硬件和生態(tài)協(xié)同,CPU正在迎來新的高光時刻,推動人工智能行業(yè)邁向新的高度,展現出無限的潛力與可能性。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關文章

  • Manus官網突現“地區(qū)不可用”提示,中國區(qū)業(yè)務戰(zhàn)略性調整引關注

    四個月前邀請碼炒至10萬元,如今官網變灰、社交賬號清空,這家AI新貴的閃電遷移折射中國科技企業(yè)出海潮涌。7月11日,打開Manus官網的用戶發(fā)現一則突兀提示:“Manus在你所在的地區(qū)不可用”。而就在不久前,這個位置還顯示著“Manus中文版本正在開發(fā)中”的樂觀聲明。同時,Manus官方微博和小紅書

    標簽:
    ai智能
  • 摩爾線程估值超 250 億,「中國英偉達」沖刺科創(chuàng)板

    文/十界來源/節(jié)點財經一場圍繞算力自主的競賽,正在科創(chuàng)板上演。近日,國產全功能GPU廠商摩爾線程遞交科創(chuàng)板招股書,擬募資約80億人民幣,成為今年上半年科創(chuàng)板擬募資規(guī)模最大的沖刺者,也打響了“國產英偉達”上市的第一槍。據招股書顯示,摩爾線程自2020年成立以來,主營全功能GPU芯片的研發(fā)與銷售,以自主

  • 百川智能高管集體跑路!王小川的醫(yī)療AI還能贏嗎?

    “AI大模型六小虎”百川智能危機重重。這是前搜狗CEO王小川創(chuàng)辦的AI公司。昨天就爆出新聞,百川智能的聯(lián)合創(chuàng)始人離職,這是王小川入局AI的第一道大坎。接下的成敗非常關鍵:(1)拿下河北(2)學習科大訊飛百川智能離職高端概覽:(1)2025年7月10日,百川智能技術聯(lián)合創(chuàng)始人謝劍將離職。他是百川只能的

  • 百度智能云PaddleOCR 3.1正式發(fā)布:關鍵能力支持MCP

    百度AI團隊今日正式推出PaddleOCR3.1版本,以突破性的多語言組合識別(MultilingualCompositionPerception,MCP)技術為核心,徹底重構復雜文檔處理邊界。此次升級標志著OCR領域首次實現對同一文檔內任意混合語言文本的精準識別,為全球化企業(yè)、跨境業(yè)務及多元文化場

    標簽:
    ai智能
    ai技術
  • 宇樹科技加速沖刺科創(chuàng)板IPO,人形機器人龍頭估值飆至120億元

    “宇樹已形成硬件、算法、場景聯(lián)動的業(yè)務飛輪,自研率超95%的技術壁壘讓其成為全球機器人賽道不可忽視的中國力量?!笔壮藤Y本管理合伙人朱方文在追加投資時如是評價。7月7日,據每日經濟新聞從宇樹科技投資方處獲悉,國內人形機器人領軍企業(yè)宇樹科技(UnitreeRobotics)已明確計劃于科創(chuàng)板IPO,預計

    標簽:
    宇樹科技
  • OpenAI推出GPT-5:AI大統(tǒng)一時代的到來?

    推理與多模態(tài)的終極融合,將徹底終結用戶在不同模型間切換的煩惱。7月7日,OpenAI正式確認將在今年夏季推出新一代人工智能模型GPT-5。這一突破性產品將整合現有的多個強大模型,特別是融合專注推理能力的“O系列”與具備多模態(tài)功能的“GPT系列”,為用戶提供前所未有的統(tǒng)一體驗。OpenAI開發(fā)者體驗負

    標簽:
    chatgpt
  • 中小AI企業(yè),沒有“高考”資格

    高考一結束,忙壞了海內外一眾大模型。豆包、DeepSeek、ChatGPT、元寶、文心一言、通義千問……掀起了一波“AI趕考”大戰(zhàn)。據悉,去年高考期間,大模型的成績才勉強過一本線,今年集體晉升985。據悉,豆包甚至過了清北的錄取線。頭部大模型在高考“考場”上玩得不亦樂乎,中小AI創(chuàng)企的處境卻日益尷尬

    標簽:
    ai智能
  • 大模型搶灘高考志愿填報,能否頂替「張雪峰」們?

    文/二風來源/節(jié)點財經每年高考成績放榜后,數千萬考生和家長將迎來另一場硬仗——填報志愿。今年,這一領域迎來了AI的全面介入,多家互聯(lián)網大廠和教育公司紛紛推出智能志愿填報產品,為考生提供院校和專業(yè)選擇建議。據艾媒咨詢數據,2023年中國高考志愿填報市場付費規(guī)模約9.5億元,近九成考生愿意借助志愿填報服

    標簽:
    大模型
  • 蘋果AI掉隊?現在唱衰或許還為時過早

    蘋果還沒從WWDC25的“群嘲”中走出,又迎來了一次新的痛擊。據路透社報道,21日,蘋果公司遭到股東集體起訴,被指在信息披露中低估了將先進生成式AI整合進語音助手Siri所需的時間,導致iPhone銷量受影響、股價下滑,構成證券欺詐。在這份訴訟中,庫克、首席財務官凱文·帕雷克及前首席財務官盧卡·馬埃

  • DeepSeek、豆包向左,盤古大模型向右

    華為的盤古大模型終于推出新版本了。6月20日華為云計算CEO張平安宣布基于CloudMatrix384超節(jié)點的新一代昇騰AI云服務全面上線,盤古大模型5.5同步發(fā)布。不過,當前國內的AI大模型競爭可謂是相當激烈,華為的盤古大模型在眾多大模型中并不是十分出眾。華為云此次重磅推出的盤古大模型5.5能否從

熱門排行

編輯推薦