国产chinesehdxxxx老太婆,办公室玩弄爆乳女秘hd,扒开腿狂躁女人爽出白浆 ,丁香婷婷激情俺也去俺来也,ww国产内射精品后入国产

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

ADS算力芯片的多模型架構(gòu)研究

iotmag ? 來源:物聯(lián)網(wǎng)技術 ? 作者:物聯(lián)網(wǎng)技術 ? 2022-07-04 14:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在過去十幾年里,深度神經(jīng)網(wǎng)絡(DNN)得到了廣泛應用,例如移動手機,AR/VRIoT自動駕駛等領域。復雜的用例導致多DNN模型應用的出現(xiàn),例如VR的應用包含很多子任務:通過目標檢測來避免與附近障礙物沖突,通過對手或手勢的追蹤來預測輸入,通過對眼睛的追蹤來完成中心點渲染等,這些子任務可以使用不同的DNN模型來完成。像自動駕駛汽車也是利用一系列DNN的算法來實現(xiàn)感知功能,每個DNN來完成特定任務。然而不同的DNN模型其網(wǎng)絡層和算子也千差萬別,即使是在一個DNN模型中也可能會使用異構(gòu)的操作算子和類型。

此外,Torch、TensorFlow和Caffe等主流的深度學習框架,依然采用順序的方式來處理inference 任務,每個模型一個進程。因此也導致目前NPU架構(gòu)還只是專注于單個DNN任務的加速和優(yōu)化,這已經(jīng)遠遠不能滿足多DNN模型應用的性能需求,更迫切需要底層新型的NPU計算架構(gòu)對多模型任務進行加速和優(yōu)化。而可重配NPU雖然可以適配神經(jīng)網(wǎng)絡層的多樣性,但是需要額外的硬件資源來支持(比如交換單元,互聯(lián)和控制模塊等),還會導致因重配網(wǎng)絡層帶來的額外功耗。

34c298a4-fb5f-11ec-ba43-dac502259ad0.png

開發(fā)NPU來支持多任務模型面臨許多挑戰(zhàn):DNN負載的多樣性提高了NPU設計的復雜度;多個DNN之間的聯(lián)動性,導致DNN之間的調(diào)度變得困難;如何在可重配和定制化取得平衡變得更具挑戰(zhàn)。此外這類NPU在設計時還引入了額外的性能標準考量:因多個DNN模型之間的數(shù)據(jù)共享造成的延時,多個DNN模型之間如何進行有效的資源分配等。

目前的設計研究的方向大體可以分成以下幾點:多個DNN模型之間并行化執(zhí)行,重新設計NPU架構(gòu)來有效支持DNN模型的多樣性,調(diào)度策略的優(yōu)化等。

34d33e98-fb5f-11ec-ba43-dac502259ad0.png

DNN之間的并行性和調(diào)度策略:

可以使用時分復用和空間協(xié)同定位等并行性策略。調(diào)度算法則大概可以分為三個方向:靜態(tài)與動態(tài)調(diào)度,針對時間與空間的調(diào)度,以及基于軟件或者硬件的調(diào)度。

時分復用是傳統(tǒng)優(yōu)先級搶占策略的升級版,允許inter-DNN的流水線操作,來提高系統(tǒng)資源的利用率(PE和memory等)。這種策略專注調(diào)度算法的優(yōu)化,好處是對NPU硬件的改動比較少。

空間協(xié)同定位則專注于多個DNN模型執(zhí)行的并行性,也就是不同DNN模型可以同時占用NPU硬件資源的不同部分。這要求在設計NPU階段就要預知各個DNN網(wǎng)絡的特性以及優(yōu)先級,以預定義那部分NPU硬件單元分配給特定的DNN網(wǎng)絡使用。分配的策略可以選擇DNN運行過程中的動態(tài)分配,或者是靜態(tài)分配。靜態(tài)分配依賴于硬件調(diào)度器,軟件干預較少??臻g協(xié)同定位的好處是可以更好的提高系統(tǒng)的性能,但是對硬件改動比較大。

動態(tài)調(diào)度與靜態(tài)調(diào)度則是根據(jù)用戶用例的特定目標來選擇使用動態(tài)調(diào)度或者靜態(tài)調(diào)度。

動態(tài)調(diào)度的靈活性更高,會根據(jù)實際DNN任務的需求重新分配資源。動態(tài)調(diào)度主要依賴于時分復用,或者利用動態(tài)可組合引擎 (需要在硬件中加入動態(tài)調(diào)度器),算法則多數(shù)選擇preemptive策略或者AI-MT的早期驅(qū)逐算法等。

對于定制化的靜態(tài)調(diào)度策略,可以更好的提高NPU的性能。這種調(diào)度策略是指在NPU設計階段就已經(jīng)定制好特定硬件模塊去處理特定神經(jīng)網(wǎng)絡層或者特定的操作。這種調(diào)度策略性能高,但是硬件改動比較大。

34f0e808-fb5f-11ec-ba43-dac502259ad0.png

異構(gòu)NPU架構(gòu):

結(jié)合動態(tài)可重構(gòu)和定制化的靜態(tài)調(diào)度策略,在NPU中設計多個子加速器,每個子加速器都是針對于特定的神經(jīng)網(wǎng)絡層或者特定的網(wǎng)絡操作。這樣調(diào)度器可以適配多個DNN模型的網(wǎng)絡層到合適的子加速器上運行,還可以調(diào)度來自于不同DNN模型的網(wǎng)絡層在多個子加速器上同步運行。這樣做既可以節(jié)省重構(gòu)架構(gòu)帶來的額外硬件資源消耗,又可以提高不同網(wǎng)絡層處理的靈活性。

異構(gòu)NPU架構(gòu)的研究設計可以主要從這三個方面考慮:

1)如何根據(jù)不同網(wǎng)絡層的特性設計多種子加速器;

2)如何在不同的子加速器之間進行資源分布;

3)如何調(diào)度滿足內(nèi)存限制的特定網(wǎng)絡層在合適的子加速器上執(zhí)行。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:ADS算力芯片的多模型架構(gòu)研究

文章出處:【微信號:iotmag,微信公眾號:iotmag】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    ChatGPT背后的芯片

    今年以來可以說是最熱的賽道,而AI大模型的需求爆發(fā),也帶動了AI服務器中各種類型的芯片需求,所以本期核芯觀察將關注ChatGPT背后所用到的
    的頭像 發(fā)表于 05-21 00:01 ?4049次閱讀
    ChatGPT背后的<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>

    芯片的生態(tài)突圍與革命

    據(jù)的爆發(fā)式增長,大芯片已成為科技競爭的核心領域之一。 ? 大芯片的核心應用場景豐富多樣。
    的頭像 發(fā)表于 04-13 00:02 ?1728次閱讀

    名單公布!【書籍評測活動NO.41】大模型時代的基礎架構(gòu):大模型中心建設指南

    工作日內(nèi)未聯(lián)系,視為放棄本次試用評測資格! 書籍介紹 大模型是近年來引人注目的熱點之一。大模型蓬勃發(fā)展的基礎,是針對其需求設計的及基礎架構(gòu)
    發(fā)表于 08-16 18:33

    模型時代的需求

    現(xiàn)在AI已進入大模型時代,各企業(yè)都爭相部署大模型,但如何保證大模型,以及相關的穩(wěn)定性和性能,是一個極為重要的問題,帶著這個極為重要的問
    發(fā)表于 08-20 09:04

    名單公布!【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    追求單核心性能轉(zhuǎn)向追求并行度,關注并研究芯片,這個方向是絕對沒錯的。這些年作者在自己所工作的量化金融行業(yè)取得的成績有目共睹,他作為
    發(fā)表于 09-02 10:09

    【「大模型時代的基礎架構(gòu)」閱讀體驗】+ 未知領域的感受

    國慶前就收到《大模型時代的基礎架構(gòu)》一書,感謝電子發(fā)燒友論壇。歡度國慶之余,今天才靜下心來體驗此書,書不厚,200余頁,彩色圖例,印刷精美! 當初申請此書,主要是看到副標題“大模型
    發(fā)表于 10-08 10:40

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--全書概覽

    、GPU、NPU,給我們剖析了芯片的微架構(gòu)。書中有對芯片方案商處理器的講解,理論聯(lián)系實際,使讀者能更好理解
    發(fā)表于 10-15 22:08

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】+NVlink技術從應用到原理

    前言 【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」書中的芯片知識是比較接近當前的頂尖
    發(fā)表于 06-18 19:31

    1000TOPS背后的“大芯片

    不斷發(fā)展的人工智能也對芯片提出更高的要求。人工智能的應用對于最大的挑戰(zhàn)依然來自于核心數(shù)據(jù)中心的
    的頭像 發(fā)表于 12-12 15:53 ?4581次閱讀

    AI研究框架(2023)

    Transfomer架構(gòu)模型訓練對的消耗呈指數(shù)級增長。2023年1月,ChatGPT計劃再向微軟融資100億美金,該融資將是新一代大模型
    的頭像 發(fā)表于 06-15 14:54 ?1161次閱讀
    AI<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>研究</b>框架(2023)

    淺談為AI大而生的存-體芯片

    模型爆火之后,存一體獲得了更多的關注與機會,其原因之一是因為存一體芯片的裸相比傳統(tǒng)
    發(fā)表于 12-06 15:00 ?618次閱讀
    淺談為AI大<b class='flag-5'>算</b><b class='flag-5'>力</b>而生的存<b class='flag-5'>算</b>-體<b class='flag-5'>芯片</b>

    浪潮信息與智源研究院攜手共建大模型多元生態(tài)

    近日,浪潮信息與北京智源人工智能研究院正式簽署戰(zhàn)略合作協(xié)議,雙方將緊密合作,共同構(gòu)建大模型多元開源創(chuàng)新生態(tài)。 此次合作旨在提升大模型創(chuàng)新
    的頭像 發(fā)表于 12-31 11:49 ?605次閱讀

    科技云報到:要更要“利”,“精裝”觸發(fā)大模型產(chǎn)業(yè)新變局?

    科技云報到:要更要“利”,“精裝”觸發(fā)大模型產(chǎn)業(yè)新變局?
    的頭像 發(fā)表于 01-16 10:24 ?469次閱讀

    DeepSeek對芯片的影響

    DeepSeek模型,尤其是其基于MOE(混合專家)架構(gòu)的DeepSeek-V3,對芯片的要求產(chǎn)生了深遠影響。為了更好地理解這一影響,我
    的頭像 發(fā)表于 02-07 10:02 ?1131次閱讀
    DeepSeek對<b class='flag-5'>芯片</b><b class='flag-5'>算</b><b class='flag-5'>力</b>的影響

    AIGC基礎設施技術架構(gòu)與行業(yè)實踐

    AIGC基礎設施技術架構(gòu)與行業(yè)實踐 一、硬件層:AI的物理載體 芯片技術升級? 國際前沿
    的頭像 發(fā)表于 05-29 07:44 ?153次閱讀
    AIGC<b class='flag-5'>算</b><b class='flag-5'>力</b>基礎設施技術<b class='flag-5'>架構(gòu)</b>與行業(yè)實踐