伊人成人精品,久久成人激情视频,亚洲精品中文字幕视频,精品国产污,在线人成免费视频,av福利网址,狠狠干视频网站

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

通信ETF(515880)及創(chuàng)業(yè)板人工智能ETF國泰(159388)大漲超5%點評

2025-08-13 20:49:03

每經(jīng)編輯|趙云    

今日通信ETF(515880)開盤后持續(xù)上漲,全天維持強勢,截至收盤上漲6.45%。創(chuàng)業(yè)板人工智能ETF國泰(159388)走勢接近,收漲5.50%。

資料來源:wind 

今日大盤表現(xiàn)強勢。滬指突破去年10月8日高點,創(chuàng)近4年新高。滬深兩市全天成交額2.15萬億,較上個交易日放量2694億,時隔114個交易日重回2萬億上方。截至收盤,滬指漲0.48%,深成指漲1.76%,創(chuàng)業(yè)板指漲3.62%。AI今日獲得市場認可,相關(guān)題材表現(xiàn)強勢。 

消息面上,Lumentum發(fā)布截至2025年6月28日的第四財季和整個財年業(yè)績。Lumentum第四財季實現(xiàn)營收4.8億美元,同環(huán)比+56%/+13%。云收入同環(huán)比+67%/+17%。作為上游核心供應(yīng)商,其業(yè)績超預(yù)期直接映射到光模塊板塊。 

借著今日AI板塊強勢,想跟大家探討一下:目前AI發(fā)展幾何?后面還能持續(xù)么? 

首先,回歸本源,為什么token在快速增長?

Scaling Law通常被譯作縮放定律,這是OpenAI研究人員總結(jié)出來的一條規(guī)律,模型的性能與模型規(guī)模(參數(shù)量)、數(shù)據(jù)集規(guī)模、計算資源三者強相關(guān)。通俗的說,就是大力出奇跡,通過更大的模型、更多的語料、更深層的運算,模型性能可以平穩(wěn)提升。 

我們知道,大模型通常在預(yù)訓(xùn)練完成后會有一個后訓(xùn)練的過程,隨后就會讓用戶使用。在早期,Scaling Law在預(yù)訓(xùn)練階段大顯身手,通過增加模型參數(shù)、增加訓(xùn)練語料等手段就實現(xiàn)了模型性能的本質(zhì)飛躍。但是,隨著優(yōu)質(zhì)語料的耗盡,Scaling Laws在預(yù)訓(xùn)練階段的邊際收益開始下滑。但隨后,后訓(xùn)練、推理階段的Scaling Laws開始發(fā)力。比如,當解決問題的時候,可以讓基礎(chǔ)模型分步驟去思考,一步一步得出答案。或者讓模型多次推理,最后進行采樣。實際上,OpenAI發(fā)布o1的時候,引起了巨大反響。o1并未以GPT冠名,主要原因便是技術(shù)路徑發(fā)生了巨大的變化。從此,思維鏈開始成為了一種提升性能的重要途徑。這就是Scaling Law在后訓(xùn)練和推理發(fā)力的重要表現(xiàn)。 

Scaling Law直接讓模型處理的token數(shù)量快速增長。Token,通俗的理解就是大模型的字符基本單位。比如我們在讀書的時候要一個字一個字的讀,大模型處理語言同樣需要把字符分割成基本單位。

在大模型發(fā)展的過程中,token的增長并不是線性的。舉個例子,在預(yù)訓(xùn)練過程中,模型需要多次迭代,通過梯度下降得到最優(yōu)的參數(shù)集。所以,如果把模型參數(shù)增加,這時候整個訓(xùn)練過程所需要的計算量增加倍數(shù)會更大。而在推理階段,這種增加甚至又被加速了,因為當模型性能開始提升時,不僅僅是單一用戶使用模型的頻率和單次使用的時間在增加,更重要的是,應(yīng)用場景拓寬導(dǎo)致越來越多的用戶參與了進來。以谷歌為例,在 5 月份的 IO大會,谷歌宣布每月處理 480 萬億個tokens,比起一年前增長了50多倍。而到了7月,這個數(shù)字再次翻倍,每月處理超過 980 萬億個token。

 

資料來源:華泰證券 

遺憾的是,硬件的進化速度并沒有算力需求那么快。摩爾定律表明“集成電路上可以容納的晶體管數(shù)目在大約每經(jīng)過18個月到24個月便會增加一倍”。且現(xiàn)在先進制程逐步接近物理極限,摩爾定律效能減弱。所以,為了趕上算力需求的增長,算力硬件開啟了規(guī)模放量的進程。英偉達在GPU領(lǐng)域市占超過90%,也坐上了全球市值的龍頭寶座。 

第二,AI發(fā)展到頂了嗎?

答案是沒有。相反,現(xiàn)在仍處在早中期階段。 

從資本開支的角度來看,據(jù)華泰證券統(tǒng)計,北美四大云廠商(微軟、亞馬遜、Meta、谷歌)2025年第二季度合計資本開支同比增長69%至874億美元,F(xiàn)actset一致預(yù)期25年資本開支將達到3338億美元(同比+49%)。 

可能有的投資者對3338億美元這個數(shù)沒有概念。以世界銀行統(tǒng)計的2024年全球各國的GDP排名為例,3338億美元的GDP大概能排到45名。更重要的是,即便是目前的資本開支,仍無法在短期內(nèi)解決算力供應(yīng)瓶頸的問題,所以,資本開支會進一步增長。Marvell預(yù)計,數(shù)據(jù)中心資本開支將在2028年達到一萬億美金,這個數(shù)字大概能在全球GDP排行榜上排在第20名。

資料來源:marvell 

資本開支并沒有打水漂。我們看到的是每個季度的電話會議上,北美四家云廠商都在表示,AI給他們的用戶帶來了新的體驗,并且愿意為了他們的產(chǎn)品付費。這一點,從云廠商每個季度都有雙位數(shù)幅度增加的業(yè)績就可以看出來。 

從軟件端看,2025年以來,伴隨英偉達GB200機架量產(chǎn)出貨,算力資源的緊缺有所緩解。軟件端,在今年也迎來了明顯加速。谷歌今年發(fā)布的Gemini2.5系列、Genie3等模型,再次讓業(yè)界看到了長遠的可能性。Genie3在世界模型的大道上前進了一大步,它不僅僅是一個視頻生成器,而是試圖讓生成的場景連貫,試著去理解物理學的基本定律??梢韵胂?,Genie3可以將2D的圖片拓展到三維空間,若其運算速度和性能進一步提升,可能對于智能駕駛、人形機器人這些領(lǐng)域的發(fā)展產(chǎn)生難以忽視的影響。谷歌一直是AI領(lǐng)域的領(lǐng)導(dǎo)者,其DeepMind團隊此前憑借AlphaGO擊敗世界圍棋冠軍,名冠當世。去年又因為在蛋白質(zhì)結(jié)構(gòu)預(yù)測領(lǐng)域的貢獻斬獲諾貝爾化學獎,沒想到一年之后,又再次讓世界驚艷。而其他廠商,如xAI、微軟、阿里等也在積極推進軟件研發(fā)。 

大模型的爆火。從2023年到現(xiàn)在已經(jīng)兩年多了。以英偉達的產(chǎn)品劃分,在2023年-2024年,AI下游使用的GPU主要是Hopper(H100、H200),而到現(xiàn)在,新一代的Blackwell架構(gòu)產(chǎn)品開始主導(dǎo)。在Hopper時代,云廠商巨額的資本開始不禁讓人質(zhì)疑它的持續(xù)性,因為那時AI的閉環(huán)還很朦朧,人們沒有看到這些云廠商要通過什么方式來回收他們的成本。但到了Blackwell時代,AI進入到了新的階段,云廠商的業(yè)績高速增長,AI對他們的賦能已經(jīng)顯而易見,換言之,AI的模式已經(jīng)跑通,接下來是更高更快更遠。軟件和硬件共振,訓(xùn)練和推理共振,AI或許會進一步拓寬應(yīng)用場景和增加用戶數(shù)量,相關(guān)的需求或進一步推動AI基建。站在當下,我們看到AI仍然處在上升通道。 

第三,怎么選擇投資品?為什么要關(guān)注光模塊?

目前大模型參數(shù)量已經(jīng)達到了萬億參數(shù)規(guī)模,每次完成訓(xùn)練和推理都需要面臨龐大的運算量,所以,廠商無法依靠單一的GPU或者AI服務(wù)器完成這么龐大的運算。解決方法是組網(wǎng)。 

以英偉達的架構(gòu)為例,網(wǎng)絡(luò)的目標是將大的計算任務(wù)分割,然后分發(fā)到每一片GPU上運算,最后再交互結(jié)果。所以,組網(wǎng)的第一步,是將GPU組成一個AI服務(wù)器。這個過程是使用NVLink技術(shù)來完成的,在Blackwell架構(gòu)中,介質(zhì)就是銅纜。 

銅纜傳輸高速,功耗小,優(yōu)點顯著。但沒有什么東西是完美的,銅纜也有其固有的缺點。比如,在面對數(shù)據(jù)中心的高頻高速信號時,銅纜無法完成長距離傳輸?shù)娜蝿?wù)。由于“趨膚效應(yīng)”,信號會集中在導(dǎo)體的表面,傳輸?shù)挠行M截面變小,發(fā)熱等問題被放大,數(shù)據(jù)丟包等問題開始變得不可忍受。 

工程師說,要有光,于是就有了光模塊。光模塊的任務(wù)是將電信號轉(zhuǎn)變?yōu)楣庑盘?,使得其能長距離傳輸。這樣,AI服務(wù)器便可以進一步組裝成為大規(guī)模集群,完成復(fù)雜的運算。換言之,光模塊是數(shù)據(jù)中心組網(wǎng)過程中不可或缺的。由于全球產(chǎn)業(yè)鏈分工的關(guān)系,光模塊的核心份額聚焦在中國大陸,北美相關(guān)廠商的需求,也主要是由中國大陸的企業(yè)來完成。所以,光模塊無疑是A股的AI行情中的核心環(huán)節(jié)之一。這一點,我們也從龍頭公司高速增長的業(yè)績中看到了,并且,我們認為業(yè)績?nèi)杂休^大的增長空間。 

產(chǎn)品層面,通信ETF(515880)標的指數(shù)的光模塊占比超過40%,加上服務(wù)器、銅連接等占比超過60%,光模塊占比應(yīng)該是目前主流人工智能指數(shù)和通信指數(shù)中最高的。而創(chuàng)業(yè)板人工智能ETF國泰中也含有較多的光模塊成分,而且有20cm的彈性。 

目前全球的科技巨頭都在AI戰(zhàn)場上角逐,且北美目前已經(jīng)跑通了這條道路,AI或許真的能改變我們的生活。同時,A股的光模塊又是在全球產(chǎn)業(yè)鏈分工中占據(jù)了核心地位的環(huán)節(jié),在A股慢牛的過程中,其表現(xiàn)代表了市場對AI這一產(chǎn)業(yè)趨勢的認可程度。建議投資需圍繞關(guān)鍵環(huán)節(jié)展開,繼續(xù)關(guān)注通信ETF(515880)、創(chuàng)業(yè)板人工智能ETF國泰(159388)。 

風險提示 

本速評已力求報告內(nèi)容的客觀、公正,但對這些信息的準確性和完整性不作任何保證,文中的觀點、結(jié)論和建議僅供參考,相關(guān)觀點不代表任何投資建議或承諾。行業(yè)或板塊短期漲跌幅列示僅作為市場行情分析的輔助材料,僅供參考,不構(gòu)成投資建議或承諾。文中涉及個股僅用于行業(yè)表現(xiàn)說明,非個股推薦。

我國基金運作時間較短,不能反映股市發(fā)展的所有階段?;鸸芾砣顺兄Z以誠實信用、勤勉盡責的原則管理和運用基金資產(chǎn),但不保證本基金一定盈利,也不保證最低收益?;鸬倪^往業(yè)績及其凈值高低并不預(yù)示其未來業(yè)績表現(xiàn)?;鸸芾砣颂嵝淹顿Y人基金投資的“買者自負”原則,在做出投資決策后,基金運營狀況與基金凈值變化引致的投資風險,由投資人自行負擔?;鹩酗L險,購買過程中應(yīng)選擇與自己風險識別能力和承受能力相匹配的基金,投資需謹慎。 

投資人應(yīng)當充分了解基金定期定額投資和零存整取等儲蓄方式的區(qū)別。定期定額投資是引導(dǎo)投資人進行長期投資、平均投資成本的一種簡單易行的投資方式。但是定期定額投資并不能規(guī)避基金投資所固有的風險,不能保證投資人獲得收益,也不是替代儲蓄的等效理財方式。

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0