亚洲色大成网站www-少妇性bbb搡bbb爽爽爽欧美-久久久久爽爽爽爽一区老女人-人妻丰满熟妇av无码区-欧性猛交ⅹxxx乱大交

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺電子信息窗口

ChatGPT出圈、相關(guān)芯片受益,這些芯片廠商將要“狂飆”?

2023-02-15 來源:全球半導(dǎo)體觀察
1327

關(guān)鍵詞: 人工智能 晶體管 芯片

最近,以ChatGPT為首的生成類模型已經(jīng)成為了人工智能的新熱點,硅谷的微軟、谷歌等都紛紛大舉投資此類技術(shù)(微軟100億美元入股ChatGPT背后的OpenAI,谷歌也于近日發(fā)布了自研的BARD模型),而在中國以百度等為代表的互聯(lián)網(wǎng)科技公司也紛紛表示正在研發(fā)此類技術(shù)并且將于近期上線。

以ChatGPT為代表的生成類模型有一個共同的特點,就是使用了海量數(shù)據(jù)做預(yù)訓(xùn)練,并且往往會搭配一個較為強大的語言模型。語言模型主要的功能是從海量的現(xiàn)有語料庫中進行學(xué)習(xí),在經(jīng)過學(xué)習(xí)之后可以理解用戶的語言指令,或者更進一步根據(jù)用戶的指令去生成相關(guān)的文字輸出。

生成類模型大致可以分成兩大類,一類是語言類生成模型,另一類是圖像類生成模型。語言類生成模型以ChatGPT為代表,如前所述其語言模型不僅可以學(xué)習(xí)理解用戶指令的意義(例如,“寫一首詩,李白風格的”),而且在經(jīng)過海量數(shù)據(jù)訓(xùn)練之后,還能夠根據(jù)用戶的指令生成相關(guān)的文字(在上例中就是寫一首李白風格的詩)。這意味著ChatGPT需要有一個足夠大的語言模型(Large Language Model,LLM)來理解用戶的語言,并且能有高質(zhì)量的語言輸出——例如該模型必須能理解如何生成詩歌,如何生成李白風格的詩歌等等。這也意味著語言類生成式人工智能中的大語言模型需要非常多的參數(shù),才能完成這類復(fù)雜的學(xué)習(xí)并且記住如此多的信息。以ChatGPT為例,其參數(shù)量高達1750億(使用標準浮點數(shù)的話會占用700GB的存儲空間),其語言模型之“大”可見一斑。

另一類生成類模型是以擴散模型(Diffusion)為代表的圖像類生成模型,典型的模型包括來自O(shè)penAI的Dalle,谷歌的ImaGen,以及目前最熱門的來自Runway AI的Stable Diffusion。這類圖像類生成模型同樣會使用一個語言模型來理解用戶的語言指令,之后根據(jù)這個指令來生成高質(zhì)量的圖像。與語言類生成模型不同的是,這里使用到的語言模型主要用語理解用戶輸入,而無需生成語言輸出,因此參數(shù)量可以小不少(在幾億數(shù)量級),而圖像的擴散模型的參數(shù)量相對而言也不大,總體而言參數(shù)量大約在幾十億數(shù)量級,但是其計算量并不小,因為生成的圖像或者視頻的分辨率可以很高。

生成類模型通過海量數(shù)據(jù)訓(xùn)練,可以產(chǎn)生前所未有的高質(zhì)量輸出,目前已經(jīng)有了不少明確的應(yīng)用市場,包括搜索、對話機器人、圖像生成和編輯等等,未來可望會得到更多的應(yīng)用,這也對于相關(guān)的芯片提出了需求。




ChatGPT有望助力高性能GPU等發(fā)展

作為人工智能深度發(fā)展到一定階段的產(chǎn)物,ChatGPT對芯片算力需求極高,高性能GPU等產(chǎn)品有望從中受益。

業(yè)界指出,自然語言類AI應(yīng)用底層算力芯片以高性能GPU為主,在該類芯片中英偉達占據(jù)主要市場。據(jù)悉,ChatGPT已導(dǎo)入了至少1萬顆英偉達高端GPU?;ㄆ煦y行分析,ChatGPT可能會在未來12個月內(nèi)為英偉達帶來30億美元至110億美元的銷售額。

另一大芯片廠商AMD在今年CES上展示了下一代面向數(shù)據(jù)中心的APU產(chǎn)品Instinct MI300,計劃下半年推出。Instinct MI300采用chiplet設(shè)計,擁有13個小芯片,晶體管數(shù)量高達1460億個,超過了英特爾的1000億晶體管的Ponte Vecchio,成為了AMD投入生產(chǎn)的最大芯片。AMD表示,Instinct MI300可以將ChatGPT和DALL-E等超大型AI模型的訓(xùn)練時間從幾個月減少到幾周,從而節(jié)省數(shù)百萬美元的電力。

隨著ChatGPT概念持續(xù)火熱,國內(nèi)AI芯片廠商同樣有望受益。除此之外,由于ChatGPT依賴非常大量的算力(芯片)來支持其訓(xùn)練和部署,目前ChatGPT在應(yīng)用時仍需要大算力服務(wù)器支持,這也有望間接帶動服務(wù)器內(nèi)存發(fā)展。


英偉達是ChatGPT熱潮最大受益者

英偉達是此次ChatGPT熱潮的最大受益者,因為英偉達用于服務(wù)器的AI芯片對于超大型AI 模型的學(xué)習(xí)和推理至關(guān)重要,幾乎壟斷全球服務(wù)器用AI芯片市場。

Open AI表示,ChatGPT 是與英偉達和微軟合作完成的超級AI。 準確地說,微軟已經(jīng)與英偉達合作,在其云(Azure HPC Cloud)中構(gòu)建了由大量AI芯片組成的超級計算機(HPC)集群,并將其提供給OpenAI。

據(jù)了解,用于 ChatGTP 學(xué)習(xí)和推理的超級計算機擁有 285000個CPU(中央處理器)內(nèi)核和10000多顆AI芯片。事實上,如果你問ChatGPT是如何學(xué)習(xí)的,它會回答,“它正在使用英偉達AI芯片學(xué)習(xí)和執(zhí)行?!?/span>

OpenAI CEO Sam Altman表示,ChatGPT處理用戶查詢的每筆成本約為2美分。這是引入和使用英偉達AI芯片所需的成本。如果ChatGPT用戶數(shù)量增加,云和AI芯片的使用將不可避免地增加,這將增加英偉達的銷售額和營業(yè)利潤。

研究人員Uh Gyu-jin表示:“如果說游戲?qū)τミ_的增長作出了貢獻,因為高性能GPU被用來驅(qū)動現(xiàn)有的高端游戲,那么最近數(shù)據(jù)中心銷售的增長是急劇的,因為GPU已被用作數(shù)據(jù)中心加速器。”隨著超大型人工智能的需求增加,英偉達的銷售額和營業(yè)利潤有望獲得大幅增長。

投資者也注意到了這一點,并將英偉達列為ChatGPT熱潮的最大受益者。花旗集團分析師Atif Malik預(yù)估,ChatGPT可能會在未來12個月內(nèi)為英偉達帶來30億美元至110億美元的銷售額。

事實上,從今年開始,英偉達在數(shù)據(jù)中心領(lǐng)域的銷售額有望首次超過游戲,占比達到57%。隨著人工智能概念被引入數(shù)據(jù)中心,其銷售額占比將大幅提升。特別是在應(yīng)用人工智能深度學(xué)習(xí)技術(shù)時,收集和分析大規(guī)模信息的云服務(wù)必須得到有效管理。因此,英偉達GPU安裝在需要深度學(xué)習(xí)技術(shù)的地方越來越多,例如,提供云服務(wù)的亞馬遜、微軟、IBM和阿里巴巴。

英特爾和AMD等其他半導(dǎo)體公司也生產(chǎn)用于服務(wù)器的AI芯片,但沒有英偉達AI芯片并行處理技術(shù)(CUDA)的優(yōu)勢,它們的市場份額僅個位數(shù);而蘋果、高通等都專注于為智能手機、平板電腦和物聯(lián)網(wǎng)等邊緣設(shè)備開發(fā)AI芯片,因此英偉達有望在服務(wù)器用的AI芯片領(lǐng)域繼續(xù)占據(jù)主導(dǎo)地位。




HBM需求攀升利好三星、SK海力士

英偉達GPU搭載了包括高帶寬存儲器(HBM)在內(nèi)的大量DRAM。三星電子、SK 海力士、美光等有望直接或間接受益于英偉達AI芯片需求的快速增長。因為AI半導(dǎo)體需要“HBM3”才能學(xué)習(xí)和推理,而 AI芯片僅用于推理需要“GDDR6”和“GDDR7”存儲器。

ChatGPT等AI聊天機器人執(zhí)行大量計算的時候需要高性能和大容量內(nèi)存的支持。隨著AI聊天機器人服務(wù)市場爆發(fā),對內(nèi)存的需求將會增加。三星電子和 SK 海力士一致認為,“ChatGPT 等AI聊天機器人服務(wù)中長期將對內(nèi)存半導(dǎo)體市場產(chǎn)生積極影響?!?/span>

三星電子指出, HBM數(shù)據(jù)處理速度比DRAM快,為GPU和人工智能加速器提供數(shù)據(jù)的高性能高帶寬內(nèi)存 (HBM) 的需求將會擴大。從長遠來看,隨著AI聊天機器人服務(wù)的擴展,對用于CPU的128GB 或更大容量的高性能 HBM 和高容量服務(wù)器 DRAM 的需求預(yù)計會增加。

SK海力士解釋說,從內(nèi)存的角度來看,AI聊天機器人需要高性能的DRAM和高性能的計算存儲設(shè)備,可能加快市場重心轉(zhuǎn)向大容量服務(wù)器內(nèi)存的時間。SK海力士提到,服務(wù)器內(nèi)存從64GB遷移到128GB的速度可能更快。

HBM可以消除 CPU、GPU 和內(nèi)存之間的性能差距造成的瓶頸,補充了現(xiàn)有 DRAM 的局限性,被認為是一種具有前景的下一代內(nèi)存產(chǎn)品。CPU和GPU的性能每年都在大幅提升,但支撐它們的內(nèi)存半導(dǎo)體性能卻一直相對滯后,HBM 作為替代方案應(yīng)運而生。目前,通過與中央處理器 (CPU) 和圖形處理器 (GPU) 配對,可以明顯提高服務(wù)器性能的HBM訂單正在明顯增加。今年第一季度,HBM供應(yīng)商三星電子、SK海力士相關(guān)業(yè)務(wù)咨詢呈指數(shù)級增長。特別是SK海力士,客戶的需求電話紛至沓來。一位業(yè)內(nèi)人士透露,“目前,英偉達在大部分服務(wù)器 GPU產(chǎn)品中都使用 SK 海力士HBM3”。

HBM唯一缺點是價格高。HBM盡管性能出色,但平均售價至少比最高性能的 DRAM 高出三倍,因為生產(chǎn)過程復(fù)雜且需要高水平的工藝。HBM2價格是16Gb DRAM的兩倍多,SK海力士HBM3價格已飆升了五倍。從存儲半導(dǎo)體企業(yè)的角度來看,HBM是一個高附加值領(lǐng)域,供應(yīng)量越大,利潤率就越高。



主站蜘蛛池模板: 国产免费牲交视频| 国产免费无码一区二区视频| 1000部无遮挡拍拍拍免费视频观看 | 亚洲熟妇中文字幕曰产无码| 福利姬国产精品一区在线| 少妇邻居内射在线| 午夜亚洲福利在线老司机| 国模精品一区二区三区| 亚洲人成无码区在线观看| 亚洲欧美牲交| 亚洲三级在线中文字幕| 国产成a人亚洲精v品无码| 国产精品久久婷婷六月丁香| 亚洲日韩乱码一区二区三区四区| 国产一区丝袜高跟鞋| 久久国产乱子伦精品免费乳及 | 美女网站免费福利视频| 久久亚洲国产最新网站之一| 欧美成人一区二区三区在线观看| 熟妇视频| 欧美日韩亚洲国产综合乱| 中日韩va无码中文字幕| 成人天堂资源www在线| 另类亚洲欧美精品久久| 少妇特黄a一区二区三区 | 亚洲综合av在线在线播放| 国产成人精品高清在线观看99| 国产美女遭强高潮免费| 黑人粗大猛烈进出高潮视频| 久久视频这里只有精品在线观看| 欧美精品国产制服第一页| 成人国内精品久久久久一区| 1000部啪啪未满十八勿入下载 | 国内精品伊人久久久久777| 乱子伦视频在线看| 无码人妻丰满熟妇啪啪欧美| 国产毛片欧美毛片久久久| 精品少妇人妻av一区二区| 日本真人边吃奶边做爽免费视频| 精品亚洲成a人在线看片| 99久久婷婷国产综合精品|