<strong id="lfakk"><pre id="lfakk"></pre></strong>

<tbody id="lfakk"></tbody>
  • <th id="lfakk"></th>
    <dd id="lfakk"></dd>

    1. EN
      EN

      電子行業深度報告:AI商業模式逐步落地,算力產業鏈迎接星辰大海

      發布時間:2023-04-07
      分享至:

       一、 AI 帶動萬億藍海市場,“模型+數據+算力”為產業 核心壁壘

      (一)AI 產業歷經 70 年發展,終將迎來第四次工業革命

              AI 歷史發展余 70 年,經歷多發展階段,最早可追溯至上世紀初期。AI 目前已滲透至日 常生活方方面面,在醫療保健、汽車、金融、游戲、環境監測、農業、體育、能源管理、安全 等各個領域的大量應用正改變人類的生活、工作和娛樂方式。這些技術的進一步發展將迎來 第四次工業革命。,造成這一現象的原因包括計算機技術的進步(高性能計算、網格和云計算)、 代碼共享度提高(GitHub、GitLab、BitBucket 等服務)以及大量開源軟件。AI 將為企業和國 家經濟系統提供革命改變,商業領域,人工智能帶來的優勢包括快速揭示大數據中的模式、 快速進行可視化和分析、改進產品設計等等,并進一步有望提升服務水平、增利潤、擴大業 務、提高效率和成本結構。

      當前正處于第四次工業革命的風口浪尖,正處于新一輪產業變革制高點。當下全球正在發 生的第四次工業革命是人工智能、智慧網聯時代,以超大數據、超強算力、超強算法的人工智 能為核心技術,以智能家居、智能音箱、智慧城市、智能汽車和手機為數據入口的智能終端產 品正加速 AI 時代的進化。

      (二)產業規模擴容廠商競入新藍海,國家政策 AI 發展

            全球 AI 產業規模預計 2030 年將達到 1500 億,未來 8 年復合增速約 40%。目前全球人工 智能企業的數量迅速增長,2022 年,全球人工智能(AI)市場規模估計為 197.8 億美元,預計 到 2030 年將達到 1591.03 億美元,從 2022 年到 2030 年,復合年增長率為 38.1%。 從地區上來看,美中歐暫時領先,格局仍未確定。其中 AI 市場美國領先,中國和歐盟并 駕齊驅。截至 2017 年,全球人工智能企業主要集中在美國(2905 家)、中國(670 家)和歐盟 (657 家),合計份額為 70.01%。目前,美國仍是人工智能的核心發源地之一,其 他國家也在迅速跟進人工智能的研發。國內北京人工智能發展領跑全國,上海、廣東、江蘇、 浙江等地發展逐漸加快。

      2022 年中國人工智能產業規模達 1958 億元,年增長率 7.8%,整體穩健增長。而從應用 格局來看,機器視覺、智能語音和自然語言處理是中國人工智能市場規模最大的三個應用方向。 根據清華大學數據顯示,三者占比分別為 34.9%、24.8%和 21%。一方面,政策推動下國內應 用場景不斷開放,各行業積累的大量數據為技術落地和優化提供了基礎條件。另一方面,以百 度、阿里、騰訊和華為為代表的頭部互聯網和科技企業加快在三大核心技術領域布局,同時一 系列創新型獨角獸企業在垂直領域快速發展,龐大的商業化潛力推動核心技術創新。

              AI 場景豐富,多垂直細分領域均有應用。 科技的持續研究和創新正在推動人工智能技術在行業垂直領域的應用,如汽車、醫療、零 售、金融和制造業。例如,2020 年 11 月,英特爾公司收購了 Cnvrg.io,為數據科學家建立和 運行機器學習模型開發和運營平臺,以促進其人工智能業務。深度學習和 ANN(人工神經網 絡)的進步也推動了人工智能在航空航天、醫療保健、制造和汽車等多個行業的應用,Google 一直在采用 ANN 來改善路線,并處理使用 ANN 收到的反饋。計算機視覺技術的最新進步, 如 GAN(Generative Adversarial Networks)和 SSD(Single Shot MultiBox Detector),已經促成 了數字圖像處理技術的誕生,這些技術可以使在低光或低分辨率下拍攝的圖像和視頻轉換為 高清質量,計算機視覺的持續研究為安全與監控、醫療保健和運輸等部門的數字圖像處理奠定 了基礎。

              在人工智能不同的垂直應用領域中,廣告和媒體部門引領市場在 2022 年占全球收入份額 的 19.5%以上,這一高份額歸因于人工智能營銷應用程序不斷地增長。預計到 2030 年,醫療 保健部門將獲得最大份額?;跈C器人輔助手術、減少劑量錯誤、虛擬護理助理、臨床試驗參 與者標識符、醫院工作流程管理、初步診斷和自動圖像診斷等用例,醫療保健部門已獨樹一幟。

      在國內,機器視覺領域是人工智能應用最多最廣的板塊。2022 年機器視覺 相關投融資浪潮高企,工業、泛安防、能源賽道熱度高漲,持續受到資本青睞。 近兩年來是 AI 產業上市最火爆的細分賽道,涌現了商湯科技、格靈深瞳、云從 科技、奧比中光等 IPO 企業, 2022 年我國機器視覺產品的市場規模達到 830 億 元。同時,龐大的市場牽引科技研發,我國在全球機器視覺技術創新上已位居世 界前列。截至 2021 年 8 月,中國機器視覺專利申請量占全球機器視覺專利總申 請量的 78.7%;其次是美國,占比為 14.2%。

             國家政策不斷發力,助力中國 AI 成長。近年來,人工智能產業發展受到國家層面的重視, 相關政策頻出。2017 年,國務院出臺《新一代人工智能發展規劃》,成為中國人工智能發展的 指導性文件;國家發改委、中央網信辦、工信部等部門陸續發布人工智能相關細則,部署人工智能發展計劃。近五年來,中國政府憑借在人工智能產業發展中強有力的領導地位,發揮資源 聚集的制度優勢。國家堅持“市場導向”,秉持開源開放原則,在推動產學研用多主體共享成 果的同時還加強軍民深度融合,實現創新資源共享和科技成果雙向轉化,不斷通過政策更好地 引導人工智能產業全方位快速發展。

      (三)人工智能發展三駕馬車——模型、數據和算力

              人工智能產業鏈按照上下游可以分為人工智能基礎層、人工智能技術層、人工智能應用層。 其中,上游人工智能基礎層將 AI 分為模型、算力和數據三大要素。AI 模型生產工具包括 AI 算法框架、AI 開放平臺、AI 開發平臺和預訓練模型;AI 算力基礎領域包括 AI 芯片、智能服 務器和云服務;AI 數據資源包括 AI 基礎數據服務和數據治理。人工智能技術層包括計算機視 覺、智能語音、自然語言處理、知識圖譜、機器學習。人工智能應用層則很廣泛,涵蓋“AI+ 泛安防”、“AI+泛互聯網”、人機交互、自主無人系統、“AI+媒體”、“AI+金融”、“AI+醫療”、 “AI+工業”、“AI+零售”、“AI+政務”等應用,涉及經濟社會運行的方方面面。

      1、模型

            人工智能框架一直在蓬勃發展,各種框架在開發者的不斷開發和自然選擇的基礎上不斷 迭代。經過激烈的競爭,最終出現了雙雄并立的 TensorFlow 和 PyTorch 的兩大陣營。隨后,遷 移學習(Transfer learning)成為開發大規模人工智能模型的流行技術,使研究人員能夠利用預 先訓練的模型來提高新任務的性能。在此期間,注意力機制(Attention mechanisms)也出現了, 允許模型有選擇地關注輸入數據的某些部分。 2017 年,Transformer 模型的引入標志著自然語言處理的重大突破,使模型能夠大規模地 生成類似人類的語言。預訓練大模型的基本原理是充分利用大規模的數據,以挖掘數據中的知 識和規律,類似接受人類的通識教育。再針對特定的任務,進行參數微調,可以達到智能對話、 智能問答、智能創作、人臉識別等功能,并且進入可大規模、可復制的大工業落地階段。在算 法模型層面,超大規模模型成為近幾年來最熱門的發展之一。

            2018 年 OpenAI 推出了非常強大的預訓練語言模型 Generative Pre-trained Transformer (GPT),結果表明這一模型可以在非常復雜的 NLP 任務中取得非常驚艷的效果,而且并不需 要有監督學習進行模型微調。同年,谷歌的雅各布·德夫林和同事創建并發布了 BERT (Bidirectional Encoder Representations from Transformers)。BERT是一個雙向transformer模型, 用于對大量未標記的文本數據進行預訓練,以學習一種語言表示形式,這種語言表示形式可用 于對特定機器學習任務進行微調。雖然 BERT 在幾項任務中的表現都優于 NLP 領域沿用過的 最先進的技術,但其性能的提高還是歸功于雙向 transformer、掩蔽語言模型對任務的訓練以及 結構預測功能,還包括大量的數據和谷歌的計算能力。此后,基于 BERT 的改進模型包括 DistillBERT、XLNet、RoBERTa、T5 等大量新式預訓練語言模型不斷涌現。

             2019 年,OpenAI 繼續推出了帶有 15 億參數的 GPT-2,這一改進后的模型能夠生成連貫 的文本段落,做到初步的閱讀理解、機器翻譯等。接著,英偉達推出了具有 83 億參數的 Megatron-LM,谷歌繼續推出了具有 110 億參數的 T5 模型,微軟推出了 170 億參數的圖靈 Turing-NLG。 2020 年,OpenAI 又推出了超大規模的語言訓練模型 GPT-3,參數量達到了 1750 億之高, 實現了模型參數從億級到上千億的跨越。此后,谷歌、華為、阿里巴巴和北京智源等企業和研 究機構紛紛推出超大規模的預訓練模型,包括 MT-NLG、Switch Transformer、盤古和悟道 2.0 等。預訓練的模型參數數量和訓練數據量正以每年 300倍的趨勢增長,通過增加模型參數和訓 練數據仍是短期內的發展方向。

             2022 年 11 月,OpenAI 推出建立在 GPT-3 系列大型語言模型之上的 ChatGPT,并使用監 督和強化學習技術進行微調。ChatGPT 在技術路徑上采用“大數據+大算力+強算法=大模型” 的戰略,又在“基礎大模型+指令微調”方向探索出新道路,基礎大模型類似人類的大腦,通 過指令微調進行交互訓練,結合實現近似人類的語言智能。ChatGPT 的問世不僅是新一代聊天 機器人的突破,還將為人工智能和整個信息產業帶來一場革命。2、數據

             在算法模型發展的同時,對于數據規模和質量的要求也在不斷提高。以 GPT 的發展歷程 來看,用以訓練模型的數據集的廣度和深度都在不斷加強,使得模型的回答具有更高的準確性 和質量,實現模型的不斷優化。 GPT 使用 BooksCorpus 數據集來訓練語言模型。BooksCorpus 有大約 7000 本未出版的書 籍,有助于在未見過的數據上訓練語言模型。另外,這個語料庫有大量的連續文本,有助于模 型大范圍地學習依賴關系。GPT-2 使用的訓練數據集名為 WebText,具有來自 800 多萬份文件 的文本數據,總規模為 40GB,與用于訓練 GPT-1 模型的圖書語料庫數據集相比是巨大的。 GPT-3 是在五個不同的語料庫中混合訓練的,每個語料庫都有一定的權重。其中高質量的數據 集被更頻繁地取樣,并且不止被訓練過一個 epoch。使用的五個數據集是 Common Crawl, WebText2, Books1, Books2 和 Wikipedia。用于訓練 ChatGPT 的具體數據集沒有公開披露,但仍 然是幾個大型語料庫的組合,并且數據規模比 GPT-3 進一步增大。

      3、算力

           自從進入互聯網時代,人類所能獲取和利用的數據呈現爆發式地增長,各行業、各場景的海量數據為人工智能的自主學習和模型訓練提供了數據基礎。而自人工智能的概念興起,算法 模型一直在不斷優化,從決策樹到神經網絡,從機器學習到深度學習,并且已在不同的領域中 得到應用。算力是基于芯片的人工智能發展的硬件基礎和平臺,隨著海量數據的產生和算法模 型的不斷優化和發展,算力的發展成為了人工智能系統快速發展的核心要素。從 1956-2020 年, 計算機處理能力的 FLOPS 增加了一萬億倍。

             近幾年,大量復雜的數據的收集和處理都需要硬件能力的相應增長,以應對人工智能發展 的需求?;旧?,計算能力是計算機以速度和準確性執行某種任務的能力。正如 OpenAI 的研 究表明,訓練最大的人工智能模型所需的計算能力,自 2012 年以來平均以每 3.4 個月翻一倍 的速度增長。而在 2012 年之前的情況并非如此,當時計算能力平均以 2 年的速度翻倍。這意 味著,今天使用的資源正以比以前快七倍的速度翻倍。從另一個角度而言,在線性尺度上,計 算用量在 2019 年之前就增加了 30萬倍,表明對人工智能特定硬件的需求呈指數級增長。

      (四)互聯網行業巨頭積極布局,AI 競賽壓力不減

      1、微軟——投資 OpenAI,探索 AI 在在多場景落地

             14 年起推動 AI 領域布局,逐步探索 AI 商業模式落地。作為互聯網行業的領先者,微軟 過去專注于繼續開發 Windows 和 Office 應用程序。2014年,隨著首席執行官 Satya Nadalla 的 任命,微軟開始向人工智能戰略轉變,推動微軟在人工智能創新方面的發展。2016 年,微軟成 立了人工智能實驗室,致力于推廣和開發基于人工智能的應用程序。2017 年,微軟宣布收購 于以深度學習為研究重點的初創公司 Maluuba,并將人工智能的運用延伸到空中。同年,微軟 和亞馬遜宣布建立合作伙伴關系,意味著微軟人工智能開發的工具和服務,如 Cortana,Office 365 將與 Alexa 等亞馬遜服務交互。2018 年,微軟又相繼收購多個 AI 公司,探索深度學習的 商業化模式。

      多次投資 OpenAI,在人工智能領域探索更進一步。 2019 年,在微軟于首次向 OpenAI 注資后,兩家公司開始在微軟的 Azure 云計算服務上 合作開發 AI 超級計算技術,同時,OpenAI 也逐步將其云服務從谷歌云遷移到 Azure。有了微 軟的算力支持,OpenAI 在 2020 年推出了突破性的成果 GPT-3。同樣在 2020 年,微軟買斷了 GPT-3 基礎技術的授權,在 Office、搜索引擎 Bing 和設計應用 Microsoft design 等產品中使用 GPT-3,以優化現有產品。 2021 年,微軟再次投資,雙方合作正式進入第二階段。一方面,作為 OpenAI 的云服務 商,微軟在 Azure 中集中部署 GPT、DALLE、Codex 等 OpenAI 開發的各類工具。這也形成了 OpenAI 最早的收入來源,即通過 Azure 向企業提供付費 API 和 AI 工具。同時,在獲得 OpenAI 新技術商業化許可的情況下,微軟開始將 OpenAI 工具與自己的產品深度整合,并推出相應的 產品。2021 年 6 月,微軟與 OpenAI 和 GitHub 合作,推出了基于 Codex 的 AI 代碼補充工具 GitHub Copilot,于次年 6 月上線。2023 年,微軟向 OpenAI 追加投資數十億美元,徹底拉開了人工智能軍備競賽的帷幕,同時微軟將 ChatGPT 整合到其搜索引擎中,標志著 OpenAI 新 技術的商業化進入新階段。

           在 2023 年 3 月,OpenAI 又推出了 ChatGPT 的升級版——GPT-4,迭代速度極快。其包 含的重大升級是支持圖像和文本的輸入,并且在 GPT-3 原來欠缺的專業和學術能力上得到重 大突破,它通過了美國律師法律考試,并且打敗了 90%的應試者。在各種類型考試中,GPT-4 的表現都優于 GPT-3。

      2、谷歌——引領人工智能驅動商業化創新

           谷歌是人工智能發展中最重要的公司之一。2010 年谷歌推出其第一個人工智能驅動的搜 索引擎算法,稱為 Google Instant。2012 年,谷歌推出知識圖譜,首次使用人工智能來理解不 同實體之間的關系。2015 年,谷歌推出了 TensorFlow,用于機器學習的開源軟件庫。2016 年, 谷歌 DeepMind 的 AlphaGo 程序在圍棋比賽中擊敗了世界冠軍李世石。2017 年,谷歌推出了 谷歌助理,一個可用于智能手機和智能家居設備的對話式人工智能助理。 自 2017 年,谷歌發布 Transformer 以來,NLP 領域的技術發展得到了質的飛躍,基于谷歌 的成果,OpenAI 在 2018 年發布了 GPT 生成式預訓練模型,也就是基于 Transformer Decoder 的 GPT-1,帶有 1.1 億參數,通過大規模、無監督的預訓練+有監督的微調,在大型數據集上進 行訓練而建立的模型。與此同時,在 2018 年 10 月,谷歌推出了具有開創性的 BERT 模型,具 有 3.4 億個參數,比 GPT 大四倍并幾乎在所有性能方面都超越 GPT。

      3、百度——All in AI,十年布局長跑

            All in AI,十年布局長跑。百度在 AI 領域的布局早在 2010 年前就開始了。百度早在 2010 年代初就開始投資于人工智能技術。2014 年,百度成立了深度學習研究院(IDL),專注于開 發深度學習算法和其他 AI 技術。2015 年,百度的語音識別軟件實現了 5.5%的最低單詞錯誤 率(WER)記錄。這是語音識別技術發展的一個重要里程碑,確立了百度在該領域的領先地 位。在 2016 年 9 月的百度世界大會上,整合了視覺、語音、自然語言處理、知識圖譜、深度 學習等技術的百度大腦正式對外開放。2017 年,百度推出了阿波羅自動駕駛汽車平臺。該平 臺為開發者提供一系列工具和資源,以建立自動駕駛系統。2018 年,百度推出了名為百度健 康的醫療部門。該部門專注于使用人工智能來改善醫療診斷、藥物開發和醫療保健的其他方面。 2018 年,百度發布了其 AI 芯片“昆侖芯”,該芯片旨在用于人工智能應用,如自動駕駛和語 音識別。

      百度在 AGCI 中的全棧布局:算法、算力、數據、應用。百度官方宣布:文心一言云服務 于 2022 年 3 月 27 舉行新品發布會。官方展示了文心一言在文學創作、商業文案創作、數理 推算、中文理解、多模態生成五個使用場景中的綜合能力。在文心一言的背后,是經過四年迭 代的文心大模型。文心 ERNIE 自 2019 年誕生至今,在語言理解、文本生成、跨模態語義理解 等領域取得多項技術突破,在公開權威語義評測中斬獲了十余項世界冠軍。文心模型的訓練是 基于百度飛漿的框架,在飛漿技術不斷迭代的基礎上,文新大模型一次性發布了 11 個大模型, 涵蓋了基礎大模型、任務大模型和行業大模型三個層次的體系,充分滿足了行業的應用需求。 例如用于語言生成的 ERNIE 3.0 Titan,用于文本和圖像生成的 ERNIE-ViLG 模型。目前,百 度飛槳凝聚了 265 萬開發者、服務了 10 萬家企業、創建了超過 34 萬個模型。

             百度自行研發的 AI 芯片,單卡算力達到 128TFLOPS。昆侖芯是基于百度在人工智能領 域多年的產業實踐,自主研發的一款人工智能通用處理器芯片。新發布的 R200 人工智能加速 卡基于第二代昆侖芯,采用領先的 7nm 工藝,基于先進的芯片架構,專為深度學習和機器學 習算法的云端和邊緣計算設計。與上一代產品相比,R200 全面提升了計算機視覺、自然語言 處理、大規模語音識別、大規模推薦等應用的人工智能負載的運行效率。

            在數據層面,百度基于其搜索引擎業務,積累了大量的真實用戶數據。這些大規模的數據, 使文心一言形成自身優勢,為文心大模型的訓練提供數據基礎。產品中文心一格和文心百中已 成功落地。文心一格是一個 AI 藝術和創意輔助平臺,文心百中是大模型驅動的產業級搜索系 統。

            AIGC 的全球巨頭爭奪戰已經開始,深耕 AI 和搜索領域多年的百度正站在一個新的歷史 舞臺上,將于 2019 年 3 月推出的文心一言模型,是中國科技力量參與全球 AIGC 競賽的主要代 表。

      二、英偉達舉辦 GTC2023,關注高性能計算相關領域壁壘

          Navida 召開 GTC 發布會,展示算力芯片在多領域的突破進展。2023 年 3 月 21 日 ,英 偉達召開 GTC ,CEO 黃仁勛進行了主題演講,展示英偉達算力芯片咋 AI 應用、加速卡領域 取得進展,目前已成為自然科學、化學制藥、視覺解析、數據處理、 機器學習和大模型領域 成為不可或缺的一環。

         AI 產業迎來“iPhone”時刻,英偉達 DGX 計算機已成 AI 核心處理器。目前英偉達已向 OpenAI 交付首臺 DGX AI 超級計算機,用于加速深度學習、人工智能應用,《財富》100 強企 業中已有一半以上企業開始使用 DGX,例如:BMW 應用 DGX 被用于加速 BMW 汽車自動駕 駛系統的開發和訓練;Tencent 應用 DGX 被用于加速騰訊云的人工智能服務的開發和運營;美 國國家航空航天局利用 DGX 被用于加速 NASA 進行氣象和環境數據的分析和預測。 從參數上來看,DGX 具備滿足高性能計算和 AI 學習的需求。GPU 采用 8 片英偉達 A100 Tensor Core GPU,共有 6912 個 CUDA 核心和 432 個 Tensor Core, 單精度計算性能為 320TFlops.CPU 采用兩顆英特爾 Xeon Platinum 8280L 處理器,共有 56 個核心;每個 DGX 系 統配備 1.5TB 的 DDR4 內存;每個 DGX 系統配備 15TB 的 NVMe 存儲器,同時支持 100Gb Ethernet 和 Infiniband HDR 網絡。DGX 具有強大的計算性能、高效的數據傳輸速度、大容量的 存儲空間和穩定的供電系統,能夠滿足各種深度學習和人工智能應用的需求。

           英偉達推出 AI Foundations 云服務,從 NEMO、PICASSO、BIONEMO 三方面滲透 AI場景。AI Foundations 一站式云服務,從模型的構建到生成應用上線,,協助客戶快速構建、優 化和運營大模型,把制造大模型的能力傳遞到每一個用戶。

           NVIDIA NeMo 是一個基于 PyTorch 的開源工具包,用于自然語言文本的生成式模型。 提供 80 億、430 億、5300 億參數的 GPT 模型,客戶也可以引入自己想要的模型。Nemo 會 定期更新額外的訓練數據,可以幫助企業為客服、企業搜索、文檔處理、市場分析等場景定制 生產生成式 AI 模型。

            PICASSO (Parallel-n-Core Architecture Simulator for Scalable Oltp) 是一個用于模擬大 規模多核處理器架構的開源模擬器,用于訓練能夠生成圖像、視頻和 3D 素材的模型。NVIDIA 與 Adobe 宣布擴展雙方的長期研究和開發合作關系,共同推動下一代生成式 AI 模型,為加快 優秀創作者和營銷人員的工作流程,其中一些模型將采取聯合開發的方式,并 NVIDIA Picasso 進入市場。同時,NVIDIA 正與 Getty Images 聯合訓練負責任授權的生成式文本轉圖像以及文 本轉視頻基礎模型,這些模型將使用簡單的文本提示創建圖像和視頻,并將在 Getty Images 完 全授權的資產上進行訓練。

            BioNeMo 服務提供用于化學和生物學的 LLM。NVIDIA BioNeMo 框架用于訓練和部署超 算規模的大型生物分子語言模型,幫助科學家更好地了解疾病,并為患者找到治療方法。該大 型語言模型(LLM)框架將支持化學、蛋白質、DNA 和 RNA 數據格式。

            發布 H100 NVL 服務器,相比 A100 DGX 提供 10 倍的計算速度。GTC2023 同時發布 H100 NVLINK,這款 H100 GPU 啟用了基本完全的 94GB HBM 顯存堆棧。最大區別在于,雙 GPU 結構,頂部使用 3 個 NV Link 連接器進行互聯,因此可以提供多達 188GB 顯存,顯存帶寬也 不止翻倍,每個 GPU 帶寬提供 3.9TB/s,而 H100 SXM為 3.35TB/s,H100 PCIe 為 2TB/s。H100 NVL 綜合性能可以達到 H100 SXM 的兩倍。

      (二)大算力場景下,多項技術瓶頸期待突破

             大算力背景下,存算性能呈現剪刀差,存儲器件性能遠弱于算力性能提升。隨著 AI 算力 需求的不斷提升,傳統存儲器件也到達了尺寸的極限。依靠先進制程工藝不斷縮小器件面積、 同時提升算力的方式似乎已經走入死路。我們突破 AI 算力困境的方式,有著兩條清晰的路線: 架構創新與存儲器件創新?!按妗薄八恪敝g性能失配,從而導致了訪存和成本優化,帶寬低、 時延長、功耗高等問題,即通常所說的“存儲墻”和“功耗墻訪存愈密集,“墻”的問題愈嚴 重算力提升愈困難。隨著以人工智能為代表的訪存密集型應用快速崛起訪存時延和功耗開銷 無法忽視,計算架構的變革顯得尤為迫切。

      馮諾依曼架構,導致數據傳輸的 90%功率消耗都在數據傳輸上,99%的時間都消耗在存 儲器讀寫過程中,導致“存儲墻”和“功耗墻”問題。馮諾依曼架構的芯片在工作時,計算單元要 先從內存中讀取數據,計算完成后再存回內存,才能最終輸出。在過去,存儲器與處理器的發 展嚴重失衡,自上世紀八十年代以來,存儲器讀取速率的提升遠遠跟不上處理器性能的增長。 這導致了計算畸形的漏斗結構:無論處理器所在的漏斗“入口”一端處理了多少數據,也只能通 過存儲器狹窄的“出口”輸出,嚴重影響了數據處理的效率。

            AI 訓練未來的瓶頸不是算力,而是 GPU 的“內存墻”。無論是芯片內部、芯片間,還是 AI 加速器之間的通信,都已成為 AI 訓練的瓶頸。其中,Transformer 模型中的參數數量(紅色) 呈現出 2 年 240 倍的超指數增長,而單個 GPU 內存(綠色)僅以每 2 年 2 倍的速度擴大。盡 管在日常 GPU 使用中,對“內存墻”的存在并不敏感,但是 AI 模型的內存需求,通常是參數 數量的幾倍。因為訓練需要存儲中間激活,通常會比參數(不含嵌入)數量增加 3-4 倍的內存。 于是,AI 訓練不可避免地撞上了內存容量以及內存傳輸帶寬的墻。

      (三)存算一體化趨勢確定,HBM 與 Chiplet 實現降本增效

            全球半導體廠商已提出多種解決方案,存內計算電路可基于 SRAM 和 NOR Flash 實現。 AI 對數據的訪問和不斷調取需要數據需要在存儲單元和計算單元之間頻繁移動,訪存帶寬和 功耗成為算法的重要瓶頸之一。存算一體將存儲單元與計算單元直接結合在一起,繞過數據在 存儲和計算之間的搬運環節。當前 NOR Flash、SRAM 等傳統器件相對成熟可率先開展存內計 算產品化落地推動,從方案落地情況來看,英特爾選擇基于 SRAM 的可配置存儲器,三星選 擇在 DRAM 的 DRISA 架構上進行存算一體解決方案。

             存算一體架構可突破馮諾依曼瓶頸,提高 AI 芯片能效。存算一體架構消除了計算與存儲 的界限,直接在存儲器內完成計算,被認為是突破馮諾依曼瓶頸的極具潛力的高能效 AI 芯片 架構。目前主流的存算一體 AI 芯片基于模擬計算架構設計。模擬存算一體架構通?;?SRAM 或非易失存儲器,模型權重保持在存儲器中,輸入數據流入存儲器內部基于電流或電壓實現模 擬乘加計算,并由外設電路對輸出數據實現模數轉換。由于模擬存算一體架構能夠實現低功耗 低位寬的整數乘加計算,非常適合邊緣端 AI 場景。

            HBM 的高帶寬技術,從硬件上實現高速傳輸。高帶寬存儲器(HBM)可支持更高速率的 帶寬,基于 TSV 和芯片堆疊 技術的堆疊 DRAM 架構,可實現高于 256GBps 的突破性帶寬, 單顆粒的帶寬遠超過 DDR4 和 GDDR6。其中 DDR4 是 CPU 和硬件處理單元的常用外掛存 儲設備,8 顆 DDR4 顆粒帶寬能夠達到 25.6 GB/s,是 HBM 的 1/10,而 GDDR6 它單顆粒的帶 寬只有 64 GB/s,為 HBM 的 1/4。

      先進工藝是芯片算力提升的關鍵推動力,“后摩爾時代”先進封裝不斷發力。目前通過工 藝提升芯片算力,主要有兩種方式。1)先進制程:單位面積芯片算力會隨著工藝節點的進步 而提升,從 65nm 到 90nm 制程下的 GPU,先進工藝節點晶體管密度和工作頻率均顯著提高, 從而帶來芯片整體算力的提升。根據摩爾定律經驗,集成電路上可以容納的晶體管數目每 18 個月便會提升 1 倍,然而隨著先進制程進入 3nm 時代,摩爾定律已經受到了物理極限和工藝 成本的雙重挑戰。2)先進封裝:先進封裝可以優化連接方式、實現異構集成、提高芯片的功 能密度,從而提升芯片算力,因而是超越摩爾定律方向中的重要賽道。21 世紀初,以 MEMS、 TSV、FC 等為代表的先進封裝技術引領封測行業發展,目前平面封裝正在向 2.5D/3D chiplet 堆疊異構集成封裝技術升級躍遷,為芯片算力提升帶來了新思路。

             Chiplet 解決方案是底層基礎,2.5D 和 3D 封裝蓄勢待發。Chiplet 技術是將大型單元芯片 劃分為多個相同或者不同的小芯片,這些小芯片可以使用相同或者不同的材質、工藝節點制造, 再通過先進的集成技術封裝在一起形成一個系統級芯片,降低成本的同時獲得更高的集成度。 目前寒武紀思元 370 系列產品就是在封裝層面上,采用 Chiplet 技術,將兩顆 370 芯片拼湊成 算力更強、帶寬更大的處理器模塊。

              2.5D 封裝技術是將芯片并排放置在中介層頂部,通過芯片的微凸塊和中介層中的布線聯 系起來;3D 封裝技術則無需中介層、芯片直接通過 TSV 直接進行高密度互連。通過 2.5D/3D 技術封裝技術,可以在單位體積內集成更多的功能單元,并且這些功能單元之間互聯很短,密 度很高,因此性能可以得到很大的提升,算力水平也會提高。目前已有多家公司陸續布局 2.5D/3D 封裝技術,封裝領域將迎來又一次技術革命。

      三、AI 商業落地曙光出現,ChatGPT 引爆大算力需求

               ChatGPT 是美國 OpenAI 公司開發的一款可實現精確問答的聊天機器人。ChatGPT 是由 GPT(Generative Pretrained Transformer)技術驅動,使用海量語料庫進行訓練的語言生成器。 與其他語言生成器相比,GPT 技術采取了預訓練生成器的方式,能夠更好的理解人類語言的描 述和數據中的知識,自動生成匹配內容且自然流暢的語言,并具有實現翻譯、撰寫郵件等各類 語言相關任務的能力,大大提高了用戶體驗。因此,在 2022 年 11 月 ChatGPT 推出后,迅速 引爆市場,2 個月內月活躍用戶數便達一億,成為了歷史上用戶增長最快的消費應用。

             ChatGPT 參數量的提升代表了 AI 大模型的最新進展。AI 大模型(人工智能預訓練大模 型)指的是兼具“大規模(億級參數)”和“預訓練”兩種功能屬性的模型。從參數規模來看, AI 大模型的發展可以分為預訓練模型、大規模預訓練模型、超大規模預訓練模型三個階段。 ChatGPT 的發展也反應了 AI 大模型的發展趨勢,2018 年 OpenAI 發布的 ChatGPT 1.0 的模型 參數為 1.17 億,2019 年的第二代模型參數為 15 億,ChatGPT 3.0 的參數相比于 ChatGPT2.0 增 長了近百倍,達到了 1750 億。 ChatGPT 的 AI 文本生成技術也是 AI 音視頻、游戲等領域的底層技術,因此 ChatGPT3.0 的突破也將為 ChatGPT4.0 和 AIGC 領域提供更多的可能性,比如生成視頻等。根據微軟德國 公司 CTO Andreas Braun 對 ChatGPT4.0 的預告,其參數量將為 3.0 的數倍,并擁有多模態模 型。

               AI 大模型突破傳統 AI 適用性弱的局限,但是依舊面臨商業化難的問題。傳統的 AI 模型 通常只針對性的針對一個或者一類任務,而 AI 大模型中大規模的參數量可以提升模型的表達 能力,更好的建模海量訓練數據中包含的通用知識,再通過“微調”使大模型在特定化的場景 中依舊得到優越的表現。通過“預訓練+微調”,AI 大模型已經具有強大的通用性,ChatGPT3.0 通過 prompt-tuning 免去微調步驟實現了更強的通用性。但是由于 AI 大模型的技術成本高昂 并且決策過程難以解釋,如何真正的商業化落地始終是 AI 產業中的難題。                   ChatGPT 率先在 C 端實現商業化,為 AIGC 產業落地帶來曙光。2019 年 OpenAI 與微軟 合作,從非盈利性組織轉為有限盈利公司,目前 ChatGPT 主要通過三種方式產生商業化收入。 1)API 許可費:將 GPT-3等模型開放給其他商業公司使用,根據用量收取費用。2)與微軟深 度合作:集成于微軟云計算服務平臺 Azure 和搜索引擎 Bing 上。3)訂閱:推出付費訂閱版 ChatGPT Plus,每月收費 20 美元。從 ChatGPT 的商業模式中,也可以看出生成式 AI 的 to C 端 商業模式已經逐漸浮出水面,為 AIGC 產業實現商業化落地帶來了新的希望.

      (一)AI 芯片:算力水平是核心競爭力

              強大的算力水平是AI 大模型必備的技術支撐。算力水平是數據處理能力強弱的決定性因 素,AI 大模型的參數和語料庫能夠不斷擴容離不開強大的算力支撐,根據英偉達的數據, ChatGPT 3.0 模型需要使用 1024英偉達 A100 芯片訓練長達一個月的時間。2012-2018 年, 最大的 AI 訓練算力消耗已增長 30 萬倍,平均每 3 個多月便翻倍,速度遠遠超過摩爾定律。 IDC 數據顯示,2022 年中智能算力規模達到 268 百億億次/秒(EFLOPS),已經超過通用算力 規模, AIGC 商業落地蓄勢待發,未來對算力的需求更將超乎想象。

             GPU/ASIC/FPGA 三種計算架構并行。AI 芯片計算架構的好壞影響芯片能提供的算力水 平,是決定芯片算力的本質因素。計算架構也需要在通用性和高效性之間進行平衡,目前 AI 芯片有 3 種主流計算架構,其中 GPU 計算架構在算力加速芯片中達到 90%。1)GPGPU:負 責非圖形相關程序的運算,具有高度可編程性,是最通用、最靈活的芯片,但是算力水平受限。 2)ASIC:高定制化專用計算芯片,針對具體的應場景和算法,性能較高,但是通用性差 3) FPGA:基于現場可編程邏輯陣列的計算芯片,開發成本低、周期短,通用性和高效性介于 GPGPU 和 ASIC 之間。

             英偉達主導市場,國內廠商百花待放。目前算力芯片市場主要被歐美和日本廠商主導,其 中英偉達是全球 GPU 領域的絕對龍頭。英偉達 2020 年推出的 A100 芯片支持 FP16、FP32 和 FP64 浮點運算,峰值算力高達 624TOPS,預計在今年發布的 H100 芯片在 FP16、FP32 和 FP64 浮點計算方面將比 A100 快 3 倍,是當之無愧的 AI 芯片性能天花板。中國算力芯片領域起步 較晚,但是在國家政策的大力扶持和企業持續的研發投入下,不少國內企業也在這方面取得了 進展。

               寒武紀:中國 AI 芯片領導者。寒武紀成立于 2016 年,技術積累深厚,能提供云邊端一 體、軟硬件協同、訓練推理融合、具備統一生態的系列化智能芯片產品和平臺化基礎系統軟件。 近年來,公司持續加大研發投入,陸續推出了多款 AI 芯片,其中 2021 年推出的思元 370 采用 了 chiplet 的新技術,整體集成了 390 億個晶體管,最大算力達到 256TOPS(INT8),也是商 用客戶里出貨量最大、推廣最成功的一款產品。公司即將推出的新產品思遠 590,性能可對標 英偉達 A100,在美國《芯片法案》禁令影響下,該款芯片有望成為國內市場中替代 A100 的主 力產品。

                海光信息:基于 GPGPU 架構的 DCU 產品商業落地。海光信息成立于 2014 年,并于 2019 年切入到 DCU 產品領域,其 DCU 系列產品以 GPGPU 架構為基礎,兼容通用的“類 CUDA” 環境以及國際主流商業計算軟件和人工智能軟件,軟硬件生態豐富,可廣泛應用于大數據處理、 人工智能、商業計算等應用領域。DCU 系列產品中的深算一號性能指標堪比國際上同類型高 端產品,并在 2021 年實現商業化應用,深海二號正在研發中,也將成為算力芯片市場強有力 的競爭者之一。

           龍芯中科:GPGPU 預計 23 年流片。龍芯中科成立于 2010 年,主營業務為處理器及配套 芯片的研制、銷售及服務,主要產品與服務包括處理器及配套芯片產品與基礎軟硬件解決方案 業務。上市之初,公司就有 GPGPU 設計技術的儲備,并募集資金 10.5 億投向高性能通用圖形 處理器芯片及系統研發項目,主要針對圖形加速、科學計算尤其是人工智能應用的需求。2022 年 9 月 5 日,龍芯中科在業績說明會上表示,公司 GPGPU 研發項目進展順利,將于 2023 年 流片,公司有望成為 AI 算力芯片領域新星。

      (二)先進封裝:“后摩爾時代”先進封裝突破極限

              通富微電:持續突破先進封裝技術。通富微電深耕于集成電路封裝測試一體化服務,產品 覆蓋面廣且技術全面。近年來,公司積極布局 Chiplet、2.5D/3D、扇出型、圓片級、倒裝焊等 封裝技術,可為客戶提供多樣化的 Chiplet 封裝解決方案,并且已為 AMD 大規模量產 Chiplet 產品。在高性能計算機領域,公司已建成國內頂級 2.5D/3D 封裝平臺(VISionS)及超大尺寸 FCBGA 研發平臺,并且完成高層數再布線技術開發,同時可以為客戶提供晶圓級和基板級 Chiplet 封測解決方案。2022 年上半年,公司在 2.5D/3D 先進封裝平臺方面,再度取得突破性 進展,BVR 技術實現通線并完成客戶首批產品驗證,2 層芯片堆疊的 CoW 技術完成技術驗 證。依托于豐富的國際市場開發經驗和堅實的技術基礎,公司有望抓住先進封測市場機遇,穩固其行業龍頭的地位。

              長電科技:半導體封裝行業龍頭。長電科技是全球領先的集成電路制造和技術服務提供商, 可以提供全方位的芯片成品制造一站式服務,擁有行業領先的半導體先進封裝技術(如 SiP、 WL-CSP、FC、eWLB、PiP、PoP 及 XDFOITM 系列等)。2021 年公司推出的面向 3D 封裝的 XDFOITM 系列產品,為高性能計算領域提供了業界領先的超高密度異構集成解決方案。子公 司星科金朋與客戶共同開發了基于高密度 Fan out 封裝技術的 2.5D fcBGA 產品,同時認證通 過 TSV 異質鍵合 3D SoC 的 fcBGA,提升了集成芯片的數量和性能,為進一步全面開發 Chiplet 所需高密度高性能封裝技術奠定了堅實的基礎。2022 年,公司推動實施技術開發 5 年 規劃,包括對 2.5D/3D chiplet,高密度多疊加存儲技術等八大類逾三十項先進技術開展前瞻性 研發,將進一步推動技術和產品價值進一步提升,持續增強市場競爭力。

      (三)服務器 PCB:AI 服務器催動 PCB 技術升級

              服務器面向數據處理需求迭代,大算力時代引爆 AI 服務器需求。服務器是算力的載體, 普通的服務器主要為智能手機、PC 等提供基礎的算力和數據存儲支持,多以 CPU 為算力的提 供者、采用串行架構,無法滿足大算力時代不斷攀升的數據量引發的數據處理需求。AI 服務 器多采用 CPU+GPU/TPU/其他加速卡的異構形式,一般配置四塊以上 GPU 卡,可以滿足高吞 吐量互聯的需求,提供強大的算力支持。由 ChatGPT 引爆的 AIGC 場景增多驅動智能算力的 規模不斷增長,因此人工智能服務器的需求量也將不斷攀升。

      PCB 是服務器的重要組成部分,技術升級勢在必行。服務器算力的提升除依靠 CPU、加 速芯片組外,PCLe 總線標準的提升也是必不可少的環節。根據 Intel 規劃,服務器平臺方案正 由 Purely 轉為 Whitley,而 Whitley 中的 Ice Lake 方案也將首次支持 PCLe4.0 總線設計,下一 代 Eagle Stream 平臺將同步支持 PCLe5.0。PCB 是 PCle 總線中的關鍵組件,高等級的總線標 準需要 PCB 層數和基材的支持,其中 PCB 層數需求將從 3.0 的 8-12 層提升至 5.0 的 16 層以 上;CCL 材料的 Df 值也需要同步降低。AI 服務器需求量的提升和 PCB 技術的升級必將帶來 PCB 產品的量價齊升。

             滬電股份:高端 PCB 行業龍頭。滬電股份深耕 PCB 行業 20 年,在技術、質量、成本、 品牌、規模等方面形成相對競爭優勢,居行業領先地位。公司堅持差異化競爭戰略,重點生產 技術含量高、應用領域相對高端的差異化產品。在高性能計算領域,應用于 AI 加速、Graphics 的產品,應用于 GPU、OAM、FPGA 等加速模塊類的產品以及應用于 UBB、BaseBoard 的產 品已批量出貨,目前正在預研應用于 UBB2.0、OAM2.0 的產品。公司持續加大在高端產品領 域的研發投入,正在進行的高速 HDI 長期可靠性研究也將強化公司在 AI 加速核心產品市場的 競爭力。

               勝宏科技:服務器領域應用實現從 0 到 1。勝宏科技成立于 2006 年,主要從事高密度印 制線路板的研發、生產和銷售,主要產品包括雙面板、多層板(HDI)等。2021 年,在消費電 子市場疲軟的環境下,公司及時調整客戶結構和產品結構,并順利導入通訊、服務器、芯片等 多家國內外優質客戶。公司堅持優質客戶與高端產品的戰略布局,建立起了高速 SI 能力系統, 支持通訊、服務器高端客戶的開發,也開展了“平臺服務器主板研發”、“服務器硬盤用高頻主 板研發”等研發項目,為企業的持續增長注入了活力。

      (四)散熱:功耗與算力同步提升,散熱技術面臨挑戰

               芯片工作溫度顯著影響性能。芯片算力不斷提升的背后是計算效率的提升和功耗的增加。 芯片功耗的增加會使得芯片溫度升高,而分子熱運動也會隨著溫度升高而增大,影響到載流子 的定向遷移,使芯片的漏電流及電流增益加大,從而增大芯片的功耗,形成惡性循環。AI 服務器尤為注重純算力的運算,因此溫度升高,AI 服務器降頻運行現象尤為明顯,散熱技術的 升級勢在必行。

                散熱技術向液冷和芯片級演進。在功耗提升的同時,芯片整體尺寸也越來越小,電子芯片 工作過程中所呈現出的熱流密度大幅提升,傳統的風冷散熱已經很難滿足當下電子芯片的散 熱需求,因此,以導熱性能是空氣 15-25 倍的液體作為冷卻介質將成為未來散熱技術的主要發 展方向之一。除冷卻介質外,散熱部分和核心發熱源距離的不同也會影響散熱效果。隨著散熱 技術的升級,目前散熱方案正在從房間級、機柜級、服務器級向著芯片級演進。在芯片級液冷技術、相變儲熱散熱技術、蒸發冷卻技術這三種芯片級散熱方案中,芯片級液冷技術散熱性能 好、散熱效率高、能耗小、占地空間小、可靠性強,因此將逐漸成為 AI 服務器主流散熱方案。

               中石科技:熱管理解決方案產品可應用于服務器/數據中心。中石科技成立于 1997 年,公 司基于為全球龍頭通信設備供應商提供熱管理解決方案二十余年的經驗,不斷豐富產品矩陣, 拓寬下游應用場景。在服務器/數據中心領域,公司提供的主要產品:熱模組(尤其是液冷散熱 模組)、導熱墊片、導熱硅脂、導熱凝膠、導熱相變材料、導熱碳纖維墊等;公司目前已向國 內外多家上述終端應用企業批量供貨。公司宜興募投項目的水冷和液冷散熱模組等產品已逐 步落地,有望今年交付,將進一步提升公司在服務器/數據中心應用領域的競爭力。


      (五)AIoT:從“萬物互聯”到“萬物智聯”

               AI 技術可以賦予 LoT“人工智能大腦”。人工 ALoT 即“AI+IoT”,指的是人工智能技術 與物聯網在實際應用中的落地融合。物聯網可以將人與物、物與物連接成為一個整體,通過 LoT 智能設備生成海量數據;AI 技術可以對海量數據進行深度學習、判斷用戶的習慣,提升 用戶體驗,兩者相輔相成,推動“萬物互聯”向“萬物智聯”進化。ChatGPT 的出現使得人工 智能技術在語言交互方面的應用更為廣泛,近日推出的插件功能,將進一步促進 AI 技術和其 他產業的融合,AloT 產業也將在 AI 技術升級的推動下不斷發展。

               瑞芯微:中國領先的 AloT 芯片設計公司。瑞芯微成立于 2001 年,專注于集成電路設計 和研發。近幾年,公司跟隨市場趨勢變化,大力研發 AIoT 產品、開拓相關市場,積極打造 AIoT 生態,已經成為國內領先的 AIoT 芯片供應商。公司 AIoT 旗艦芯片 RK3588 系列是目前國內頂配高端 AIoT 芯片,可以應用于 ARM PC、平板、高端攝像頭、NVR、8K 和大屏設備、汽 車智能座艙、云服務設備及邊緣計算、AR/VR 等八大方向市場。RK3588 的成功量產,也意味 著瑞芯微 AIoT 大廈的基本成型,AIoT 業務將成為未來營收增長的主力軍。

               全志科技:中國領先的 AloT 芯片設計公司。全志科技成立于 2007 年,是卓越的智能應 用處理器 SoC、高性能模擬器件和無線互聯芯片設計廠商。在 AIoT 領域,公司與行業頭部一 線智能音箱標桿客戶保持產業深度合作,R 系列芯片產品已實現帶屏、無屏音箱全面量產?;?于智能語音的技術積累及生態布局,公司也與智能家電、掃地機器人、陪伴機器人、AI 教育 (學習機、詞典筆)等領域重要客戶深度合作,推出了 MR 系列、V853 芯片等多款產品,豐 富了在 AIoT 領域的產品矩陣.


      (本文僅供參考,不代表我們的任何投資建議。如需使用相關信息,請參閱報告原文。)


      精選報告來源:【未來智庫】


      地址:江蘇省南京市浦口區泰西路2號浦東大廈1815室 電話:025-82229538 82229638 郵箱:hser@hser.com.cn

      Copyright? 2022南京匯賽電子科技有限公司 蘇ICP備17041144號-1   網站建設龍媒網絡

      地址:江蘇省南京市浦口區泰西路2號浦東大廈1815室

      電話:025-82229538 82229638

      郵箱:hser@hser.com.cn

      微信公眾號

      Copyright? 2022南京匯賽電子科技有限公司 蘇ICP備17041144號-1

      老外又粗又长一晚做五次_无码一级午夜福利区_亚洲AV日韩AV永久无码网站_丁丁久久人人澡人人爽
      <strong id="lfakk"><pre id="lfakk"></pre></strong>

      <tbody id="lfakk"></tbody>
    2. <th id="lfakk"></th>
      <dd id="lfakk"></dd>