黃仁勳白手起家淨資產3.8兆元 與沃爾瑪繼承人大不同 - 自由財經 https://bit.ly/4iEXXOh
黃仁勳白手起家淨資產3.8兆元 與沃爾瑪繼承人大不同
2024/12/16 22:07
輝達執行長黃仁勳現在的淨資產1170億美元。(資料照,路透)
輝達執行長黃仁勳現在的淨資產1170億美元。(資料照,路透)
吳孟峰/核稿編輯
〔財經頻道/綜合報導〕外媒報導,輝達執行長黃仁勳現在的淨資產1170億美元(台幣3.8兆元),與跨國零售企業沃爾瑪繼承人吉姆·沃爾頓、羅布·沃爾頓和愛麗絲·沃爾頓(Jim Walton, Rob Walton, and Alice Walton)相似。有很大的不同的是,黃透過創業賺了大錢;沃爾頓家族從他們的父親山姆·沃爾頓(Sam Walton) 那裡繼承他們的財富。
黃仁勳的淨資產今年已躍升730億美元,達到1170億美元。唯一漲幅較大的人是特斯拉老闆馬斯克(上漲2260億美元至4550億美元)和Meta執行長祖克柏(上漲910億美元至2190億美元)。
隨著人工智慧晶片成為企業運算的核心,輝達的股票開始起飛。過去5年裡,標普500指數上漲91%,而輝達股價則上漲2297%。輝達的市值為3.29兆美元,位居全球第三大公司。
美超微由台裔執行長梁見後在1993年創辦,受惠於AI浪潮,過去3季營收每季都見倍數成長,但未如期提交財報,媒體報導遭司法部調查等對市場來說都是警示。美超微財報期限迫近股價續跌 陷那斯達克除名危機 | 國際 | 中央社 CNA https://bit.ly/4f6LxNa
昔日「AI妖股」跌落神壇 美超微市值蒸發2/3 - 自由財經 https://bit.ly/4f8QBjW
Super Micro Computer, Inc.(SMCI) 走勢圖 - Yahoo奇摩股市 https://bit.ly/3YKCAU0
美超微市值一夜蒸發逾94億美元 興登堡:會計師用詞罕見嚴厲 | Anue鉅亨 - 美股雷達 https://bit.ly/3Cibhra
美超微爭議》會計師事務所跳船,SMCI會被下市嗎?|天下雜誌 https://bit.ly/3YNQNPO
美超微又出事!SMCI股價跌三成能翻身?專家解析 | 遠見雜誌 https://bit.ly/4e9VwQC
NVIDIA Corporation(NVDA) 走勢圖 - Yahoo奇摩股市
NVIDIA Corporation(NVDA) 走勢圖 - Yahoo奇摩股市
AI即時辨識建功 台中警分局單月取締400件交通違規 - 生活 - 自由時報電子報
AI即時辨識建功 台中警分局單月取締400件交通違規 - 生活 - 自由時報電子報
工研院今日於中興院區舉辦「第13屆工研院院士授證典禮」,儀式上揭曉了新任院士名單,其中包括全球知名科技領袖與兩大AI巨頭的掌舵者——輝達(NVIDIA)創辦人暨執行長黃仁勳與超微(AMD)執行長蘇姿丰。兩人皆獲選為工研院院士,但由於無法親自到場,將委派代表代為出席,由副總統蕭美琴主持授證
快新聞/工研院第十三屆新任院士名單出爐! 黃仁勳、蘇姿丰入列 - 民視新聞網 https://bit.ly/3ZfaUHj
「台灣雖然有最厲害台積電,是晶圓代工廠,但他終究不是賣晶片廠商,真正美國晶片大廠,包含英特爾超微輝達。」
換句話說台灣只負責幫忙代工,不具備賣晶片資格,但美國對大陸不是有晶片禁令嗎?專家也解釋,美國晶片大廠大多會透過,第三地交易來規避管轄。
雲報政經產業研究院副社長柴煥欣:「像是輝達就很可能透過新加坡,轉售到中國大陸所以並不是台灣把晶片賣給中國大陸。」
至於台灣代工的晶片銷往哪裡,以整體出口占比來說美國還是佔大宗約65%、中國大陸15%、亞太地區10%,剩餘的則是日本和歐洲各佔5%。
經濟部長郭智輝:「我們沒有辦法評論美國選舉,我們在經濟上面跟美國之間關係,其實是非常非常好兩位不管誰當選,應該對我們整個貿易,跟整個經濟政策不會有改變。」
美國大選辯論扯晶片,經濟部長郭智輝說誰當選對台貿易都變不變,再進一步來看2023年全球半導體大廠,營收排行榜來看,台積電穩居第一、英特爾第二、輝達第三名,而中國大陸的中芯國際,則是排在第24名,設備不夠先進是大陸半導體大廠遲遲追不上台積電原因,美國對陸政策持續影響半導體市場。川普:大陸晶片跟台灣買的 專家:錯!美國廠賣的 https://bit.ly/3ZhfZz5
印刷電路板PCB是如何製造
NVIDIA創辦人黃仁勳
儘管已有工程師身份和家庭
仍追求史丹佛大學碩士學位
雖然學位不是唯一的成功途徑
但卻是成功的一個重要入場券!
https://www.threads.net/@professor_of_power/post/C-DwY9Xy93M?xmt=AQGzYQkyg-ji6vLUlkgeJLZwSrGD4p0wQHlcRMk3rIUIIg
「傑出移民,傑出美國人」(Great Immigrants Great Americans」,總計24 名菁英,分別來自 16 個國家(countries),輝達CEO黃仁勳也入榜,同時註明黃仁勳出生於台灣-「而且是country喔」不是ROC,ROC 已經滅亡了」。 https://bit.ly/3xDtuhc
「輝達拆股,我該買嗎?」倘若你還在猶豫或觀望,我會建議你先不要買 - TNL The News Lens 關鍵評論網
#Nvidia成為全球市值第一
#Nvidia高階晶片全部台灣製造
#Nvidia投資台灣
美國財經媒體CNBC報導,輝達18日午盤大漲3.2%,市值達3.33兆美元(約台幣107.73兆),超越微軟,成為全球市值最大的上市公司。本月初,輝達市值甫達到3兆美元(97.05兆台幣),超越蘋果,成全球市值第2大公司,接著以銳不可當的氣勢,僅以約2週時間就躍居龍頭。
今年以來,輝達股價已飆漲超過170%,該公司5月公布第1季財報後,股價進一步走高。自2022年底以來,輝達股價已上漲逾9倍,該漲勢與生成式人工智慧(AI)的崛起不謀而合。
除了Nvidia(輝達)黃仁勳是台灣人、熱愛台灣、公開指出台灣是重要的國家…以外,輝達的晶片全部由台灣製造、投資台灣成為總部、設置AI設計和製造中心…等具體作為,對台灣是真正的利多,也是台灣重要性的明證!https://www.threads.net/@tingyu_wang1969/post/C8YKJd2So_a
https://www.threads.net/@akiraxtwo/post/C8ZyVdvSM0a
輝達作為推動AI革命發展的世界引擎,黃仁勳也針對不同對象提出建議,公司應制定AI策略、學生應開始接觸AI並學習相關知識,另因機器人技術將會非常重要,也建議從事電腦科學的專業人士盡快接觸AI,他再次強調:「因為這是歷史上最令人驚嘆的科技革命之一,也是前景可期的絕佳機會。 https://bit.ly/4eBRZMrf
黃仁勳說,AI正在催生前所未有的新行業,未來將出現專門生產智慧、製造AI生成器的「智慧工廠」,如同工業革命時期的發電廠。他鼓勵畢業生運用習得的知識,深入鑽研AI技術,在這場革命中「要跑不要走」。黃仁勳也分享自己在日本京都的小故事,某次家庭旅行中,發現京都銀閣寺的苔蘚花園裡面有一名園丁在烈日下工作,那名園丁用竹鑷子小心翼翼剔除死苔蘚,將其放進竹籃裡,並告訴黃仁勳「我有的是時間」。偌大的花園,那位園丁獨自打理了25年,勉勵學子要找到一門技術,並用一生去完善、磨練-畢典致詞當場徵才 黃仁勳自稱是好老闆歡迎來輝達 - 自由財經 https://bit.ly/3z2GAoB
黃仁勳是他們見過最聰明的人,「他是一位會用簡單明瞭的方式將複雜事物具體化的大師」。兩名高階主管還表示,黃仁勳博學多聞,能在幾乎任何事情上深入研究。另1位內部人士透露,黃仁勳經常提出一些他已經知道答案的問題,作為對某個主題理解程度的一種方式。還有人認為,身為企業領袖,黃仁勳親力親為,對細節一絲不苟,「Jensen(黃仁勳)對一切都有很深的投入,而且他彷彿不知疲倦般的一直工作,我覺得工作是他的愛好。」「他絕對是位要求嚴格的領袖;他有點像體育教練,對你的期望很高,因為他希望你為了自己和球隊的利益發揮自己的潛力。」在輝達坦承錯誤相當重要,因為被視為學習和改進的一種方式。黃仁勳提倡業內人士所說的「理智誠實」:當你搞砸事情時,要真誠面對錯誤。「每個人都會被問到棘手問題;你應該了解自己的業務。如果你開始表現出你不知道的樣子,他就會開始拷問你,找出你不知道的東西,以此來告訴你『快點解決這個問題』。」甚至將黃的質問方式比喻為律師審問,員工表示:「如果你沒有被他吼,那是因為他不在乎你。」 https://bit.ly/4eCvG9p
顯卡、GPU 發展前景如何?一文掌握工程師職缺、薪水和工作內容 | CakeResume https://bit.ly/456I25f
「ARM vs. x86」x86架構與ARM架構的差異/ARM架構-1985年-精簡指令集機器-低成本、高效能、低耗電的特性/x86泛指一系列基於Intel 8086且向下相容的中央處理器指令集架構。最早的8086處理器於1978年由Intel推出,為16位元微處理器-姜朝鳳宗族|痞客邦 https://bit.ly/3OW9kD4
看衰輝達快1年!傳奇投資人再搖響「空」襲警報:是能漲多久? - 自由財經
5 分鐘學美股》輝達NVIDIA是做什麼的?靠顯卡怎麼成為世界第一? https://bit.ly/4aNFslG
輝達概念股有哪些?未來前景如何?2024年輝達概念股值得投資嗎? https://bit.ly/3X6lnnp
【矽谷熱議】Nvidia 到底強在哪裡?下一個 AI 晶片巨人又會是誰?|Eric/每日矽谷|換日線 https://bit.ly/3X5qkgt
Nvidia不斷創新高仍值得買進嗎? https://bit.ly/4aMGA9d
輝達黃仁勳主題演講報導:資料與運算需求指數級成長的時代,GPU 加速計算成為變革濫觴 | GeneOnline News https://bit.ly/4aOs9S9
黃仁勳最新接受Wired雜誌專訪:分享對GPU未來與競爭對手看法 | 美股 | 鉅亨號 | Anue鉅亨 https://bit.ly/4aR50yp
CPU 相較於 GPU:差異是什麼? https://intel.ly/3VDdHIt
整理包/ NVIDIA GPU 供應要角還有它! ABF 載板串起 IC 產業鏈 概念股、產業現況一次看 | 產業熱點 | 產業 | 經濟日報 https://bit.ly/4590idY
黃仁勳為何搶公布新AI晶片架構? 陸行之看出端倪:難怪AMD找上三星 https://bit.ly/3ReYJ8O
Intel 提供三種獨立 GPU 選項+CPU 相較於 GPU:差異是什麼? https://intel.ly/3VDdHIt
黃仁勳穿皮夾克已超過20年,不管到哪個國家,且不管那個國家是否炎熱,都可以看到他身上穿著皮夾克。已故蘋果創辦人賈伯斯(Steve Jobs)生前就愛穿黑色高領毛衣配Levi’s 501牛仔褲、New Balance 991運動鞋;祖克伯也總是穿著素色毛衣和高檔T恤。「皮夾克能展現優勢:願意打破成規、行事與眾不同、勇於挑戰現況。」「穿著一貫」可以幫助創業家塑造穩重形象,「人們需要行事一致的領袖,在動盪又難以預測的市場,穿著一貫能讓事情可以預測。 https://bit.ly/3x6xfLC
深度學習 - 維基百科,自由的百科全書 https://bit.ly/4aPUxDe
類神經網路 - 維基百科,自由的百科全書 https://bit.ly/4ec95jt
什麼是神經網路? – 人工神經網路介紹 – AWS https://go.aws/3wSDTVX
什麼是神經網路?| 神經網路的類型 | Cloudflare https://bit.ly/3X5qaWp
深度神經網路基本運作原理 - 國立政治大學人工智慧跨域研究中心 https://bit.ly/3KAP0pn
神經網路與深度學習的比較 - 不同人工智慧領域之間的區別 - AWS https://go.aws/3VtxCJy
什麼是深度神經網路? | Botpress 博客 https://bit.ly/4e7z4ss
LTN經濟通》終結半導體?奧特曼的瘋狂計畫 - 自由財經 https://bit.ly/3vgjmJU
https://www.facebook.com/reel/422021060697531
https://www.facebook.com/reel/803972501704717
商業周刊(@bwnet.tw)• Instagram 相片與影片 https://bit.ly/4ec9J0n
Forbes Billionaires 2024 https://bit.ly/3NNTdXp
全球20名,華人首富 黃仁勳 Forbes Billionaires 2024
Forbes Billionaires 2024 https://bit.ly/3NNTdXp
▲AMD董事長暨執行長蘇姿丰1年賺近10億,連續5年蟬聯女性CEO薪酬榜的冠軍。(圖/記者楊澍攝影)
輝達(NVIDIA)創辦人、執行長黃仁勳近期訪台颳起一股旋風,日前更因公司股價創新高,身價飆至1020億美元(約新台幣3.3兆元),躋升成了全球第13大富豪。而同樣也來到台灣的「半導體女王」超微(AMD)執行長蘇姿丰,日前才進入了十億美元富豪榜,近期又以超過3000萬美元的年薪,連續5年蟬聯最高薪的女性執行長。
根據《美聯社》以及薪資研究機構Equilar調查執行長薪酬結果顯示,蘇姿丰連續5年蟬聯最高薪的女性執行長,原本總排行在第25名,如今已變成了第21名。她去年的薪酬達到3030萬美元(約新台幣9.78億元),其中含底薪120萬美元、績效獎金140萬美元,還有股票獎勵2180萬美元。
調查指出,晶片大廠博通(Broadcom)執行長陳福陽(Hock Tan)的薪資最優渥,高達1億6180萬美元(約新台幣52.3億元),以股票獎勵占多數。另外,除了蘇姿丰,最高薪女性執行長前五名分別是通用汽車執行長巴拉(Mary Barra),去年薪酬2780萬美元(約新台幣8.96億元)、花旗集團執行長佛雷澤(Jane Fraser)去年薪酬2550萬美元(約新台幣8.22億元)、航太國防公司諾斯羅普格魯曼(Northrop Grumman Corp)執行長沃登(Kathy Warden)去年薪酬2350萬美元(約新台幣7.58億元)、以及優比速(UPS)執行長托梅(Carol Tome)去年薪酬2340萬美元(約新台幣7.54億元)。
這份調查一共包括了341位執行長,其中25人是女性,比例佔2011年以來最多。值得注意的是,女性中位數薪酬成長來到了21%、1760萬美元(約新台幣5.67億元),遠勝男性中位數薪酬漲幅12%、1630萬美元(約新台幣5.25億元)。由此可知,女性在職場上的「玻璃天花板」似乎有慢慢被打破的現象
1年賺近10億!蘇姿丰連5年奪「女CEO薪酬排行」榜首 驚人底薪曝光 | 財經 | 三立新聞網 SETN.COM https://bit.ly/4bPVKfe
台積電今除息秀 創辦人張忠謀股利估達4.37億元 - 自由財經
「她在台灣可能是台大醫科,就浪費一個天才」蘇姿丰父親如何教養出年薪最高女企業家 - 商業周刊第1862期 - 商周線上讀
車市價格戰簡單粗暴 中國吉利董座:偷工減料、造假銷售成惡果 - 自由財經
車市價格戰簡單粗暴 中國吉利董座:偷工減料、造假銷售成惡果 - 自由財經
輝達市值超過蘋果了,趁機來認識一下市值前10大公司
微軟:3.151兆
輝達:3.011兆
蘋果:3.003兆
Alphabet:2.188兆
亞馬遜:1.886兆
沙烏地阿美:1.820兆
Meta:1.255兆
波克夏海瑟威:0.885兆
台積電:0.845兆
禮來:0.79兆
(註解)
1.第六名沙烏地阿美(Saudi Aramco)是沙烏地阿拉伯國家石油公司。
2.第八名波克夏就是巴菲特的控股公司。
3.第十名禮來是製藥公司,因為減重藥物爆紅,市值甚至能跟科技公司媲美。百憂解這款抗憂鬱藥物也是出自於他們。
說羅馬不是一天造成的,來看看輝達一路走來經歷了什麼
https://www.threads.net/@jonathanwu_tech/post/C77FLPiPHPc
輝達(NVIDIA)創辦人黃仁勳在台灣掀起熱潮。聯合報系資料照
台股創下新高,誰會跟著輝達一起飛?00935前景看漲...全靠黃仁勳帶飛AI概念股?理財達人:3指標可以考慮入場抱好 | 存股族愛ETF | 股市 | 聯合新聞網 https://bit.ly/3VapLzo
這一陣子台股創下歷史新高,半導體族群功不可沒,伴隨著輝達(Nvidia)執行長黃仁勳造訪台灣,造成股價持續創新高,再掀AI熱潮,前幾天(6月2日)COMPUTEX邀請輝達執行長黃仁勳、蘇姿丰、基辛格、高通總裁暨執行長Cristiano Amon、聯發科副董事長暨執行長蔡力行及美超微總裁暨執行長梁見後,也將出席COMPUTEX並舉辦演講,正式宣告「AI PC元年」的到來。
因此有不少粉絲跟孫太請教跟哪一檔ETF跟AI主題有關聯,大家知道孫太對台股比較熟悉,對照台股的ETF,目前初步想的到的就是從推出就開始追蹤的野村臺灣新科技(00935),也就是號稱台版QQQ的00935當範例,我列舉幾項當觀察指標。
指標1: 輝達概念股含量高
我們從近期半導體、AI、電動車等產業的表現,都有看到相關的趨勢,外資券商摩根士丹利點名13家包括台積電、緯穎在內的13檔輝達重要供應鏈商,00935與之相關的比重接近4成,股價表現也有望受惠於近期輝達財報利多提振。
指標2:選股邏輯-重研發
最廣為人知的,莫過於00935的「研發創新」,「研發費用佔營收比重排除最差25%及小於2%」。
其成分股中前2大持股就是台積電(32.10%)和聯發科(13.99%),這樣的高比重等於讓00935鎖定了台灣最強科技產業,由此可見重研發 的公司爆發性果然不容小覷。
因此這次台股的上升行情中,表現自然特別突出。
指標3:規模持續擴大
從去年11月掛牌推出時大約10億,目前約60億,短短半年時間增漲了近5倍,代表越來越多投資人發現00935的優點和選股邏輯獨特之處,因此,孫太認真從網路上找答案,發現原因有幾點:
1、成分股中,過去三年平均研發費用占營收比重達9%多,相較台灣加權指數的2%多及台灣電子類指數的3%多,明顯高出好幾倍。
2、成分股近三年表現平均上漲至少50%,遠高於台灣加權指數的16.11%及台灣電子股指數22.92%。
3、綜合以上幾項指標,會發現輝達財報和財測都優於預期的狀態下,近期股價持續大漲,其輝達的好表現讓市場對於AI信心大增,科技股進入榮景狀態,因此台股跟著水漲船高,一家具備創新能力的科技企業,成長性和市場期待會反應在股價上。
最後引用5月20日經濟日報的新聞:政府會跟產業界密切合作,把握「前瞻未來,智慧永續」、「競逐太空,探索海洋」、「布局全球,行銷全世界」三大方向,推動台灣的發展,讓台灣成為「經濟日不落國」,意味著政府將全力扶持半導體、人工智慧、軍工、安控、次世代通訊等這幾大產業。
總結,看著目前亮眼的成績,讓孫太也十分期待有AI話題的ETF,其中包含00935這檔半年配的科技型ETF,話說第一次除息時間點應該落在今年9月份,屆時除息時會帶給投資人怎樣的驚喜呢?讓我們拭目以待!
警語:投資一定有風險,基金投資有賺有賠,申購前應詳閱公開說明書。投資人因不同時間進場,將有不同之投資績效,過去之績效亦不代表未來績效之保證。
00935前景看漲...全靠黃仁勳帶飛AI概念股?理財達人:3指標可以考慮入場抱好 | 存股族愛ETF | 股市 | 聯合新聞網 https://bit.ly/3VapLzo
2024年6月5日
AI PC堪稱今年COMPUTEX熱門話題。(示意圖/翻攝自Pixabay)COMPUTEX各廠狂推AI PC!陸行之逆風發文:幹嘛這麼笨 https://bit.ly/4aVAVxE
台北國際電腦展(COMPUTEX 2024)盛大開展,各家使出渾身解數,超微(AMD)、高通(Qualcomm)、英特爾(Intel)紛紛端出AI PC牛肉。對此,半導體知名分析師陸行之逆風發文,認為微軟(Microsoft)想將雲端算力下放到邊緣設備,「可是作為消費者,我幹嘛這麼笨,去買個比較貴的 AI PC,把微軟的資本開支及電力費用負擔攬到自己身上?」
陸行之今(5)日於臉書發文直言,「到底是我豬還是怎樣?」他不懂他現在超舊的iPhone 12就可以用Google大語言模型Gemeni、5年的舊Mac 可以跑 Chat GPT 4o,但這次在COMPUTEX,每家都在推AI PC,而且微軟CEO都要站台講一下Co-pilot,感覺像是微軟想把雲端算力下放到邊緣設備,這樣可以限制一下龐大的資本開支來賺更多錢。
「可是作為消費者,我幹嘛這麼笨,去買個比較貴的AI PC,把微軟的資本開支及電力費用負擔攬到自己身上?」陸行之說,要使用大語言、微縮語言模型,可以直接上網透過WiFi/5G上網等一下就好了,盡全力,很努力的使用微軟,谷歌在雲端買了一堆NVIDIA、AMD AI GPUs的數據中心,每個月就交個20-30美元費用,「我就算買了AI PC,這個費用也不會減少。Am I missing something?(我錯過什麼了嗎?)」
對此,其他網友則紛紛留言「講出重點了…手機才需要」、「陸老師恐怕是戳破國王的新衣了!」、「哈哈,說得好,偽需求」、「整個AI PC與AI手機就是唬人的,邊緣能進行的運算其實很尷尬,一般人視訊處理的小東西CPU與內建GPU擠一下也能做」、「消費者要都像你這樣,這些PC廠就倒閉了」。
不過也有人認為「因為未來所有筆電都是AI PC,換機潮有時候都是被廠商創造出來的啊,目前一般消費者有個用途,就是打些文字就可以創造生成式圖片,可以用在投影片或照片合成之類的簡單應用,未來在網路上應該都是要按件計酬,或者訂閱制交月費」、「機密資料可能不方便上雲端」、「若真的要做邊緣運算,也會是在桌機,怎會是手機?手機電量可能變更短」。COMPUTEX各廠狂推AI PC!陸行之逆風發文:幹嘛這麼笨 https://bit.ly/4aVAVxE
目前市面上沒有明確針對 AI PC 的定義,只要電腦本身可以執行生成式 AI 功能,就可以稱作 AI PC,這是與 ChatGPT 等仰賴雲端生成式 AI 的不同之處 —— 透過 AI PC,使用者在終端裝置上就能進行 AI 運算。
企業或個人用戶將來不必將數據上傳,就可以用 AI PC 內建的 AI 應用程式處理有資安疑慮的數據,可以省下上傳資料的時間,也提升安全性。
AI PC 技術關鍵:專用 AI 晶片
隨著生成式 AI 工具的不斷普及,企業和消費者都積極整合 AI 功能以提升生產力和休閒體驗。
許多裝有強大 CPU 和 GPU 的個人電腦已經能夠利用 AI 功能, AI PC 可以完整發揮 AI 強大運算力的關鍵是即時反應能力、低延遲和安全性,因此 AI PC 必須擁有一個專用的晶片組或區塊來加速 AI 計算。
這類算力強大晶片組的幾個例子包括高通(Qualcomm)的 Hexagon 張量加速器(Hexagon Tensor Accelerator, HTA)、蘋果(Apple)的 Neural Engines、英特爾(Intel)的 Movidius VPU 和超微(AMD)的 APU。
2024.06.04
|華碩發表4款AI PC,4萬5就買得到!AI PC售價、效能如何?|數位時代 BusinessNext https://bit.ly/459HCLp
華碩發表4款AI PC,4萬5就買得到!效能如何?還送2款AI軟體大增功力
華碩發表4款AI PC,包括文書機Zenbook S16,及創作者專業筆電P16、PX13、PZ13,並偕微軟、輝達、AMD等夥伴宣告AI PC野心。
華碩(ASUS)選在COMPUTEX前夕舉辦《Always Incredible》全球發布會,秀出Zenbook S16、ProArt等多款AI PC,多家夥伴包括微軟、輝達(Nvidia)、超微(AMD)高管都出席站台,展現打團戰的實力。
華碩AI PC效能如何?
本次登場的AI PC,都搭載了AMD新發表的第三代Ryzen AI 9 HX 370處理器,NPU(神經處理單元)達到50 TOPS,代表每秒進行50兆次運算。
微軟裝置夥伴暨銷售事業群副總裁馬克.林頓(Mark Linton)也指出,華碩在最前端發表「Copilot+ PC」,和微軟進行非常深度的協作,重新設計Windows系統和硬體的協作方式,NPU的加入,也讓AI運算力升級,甚至能達到「Always On AI」的程度,也就是讓AI永遠在背景待機,不怕電力過度消耗。
「Copilot+PC」是微軟今年發表的新概念,指的是指PC採用全新的系統架構,將CPU、GPU和專門加速AI應用的NPU整合,能夠順暢串接並運行Azure雲端的大型語言模型(LLM)和小型語言模型(SLM),讓Copilot等AI功能在硬體中達到最佳效益。
微軟裝置夥伴暨銷售事業群副總裁馬克.林頓(Mark Linton)指出,華碩發表「Copilot+ PC」,和微軟進行深度協作
華碩AI PC發布會 微軟copilot熱鍵
華碩AI PC加入微軟Copilot熱鍵。
華碩AI PC「Zenbook S16」:輕薄文書機定位,一鍵開啟Copilot互動
Zenbook S16號稱比搭載M3晶片的Macbook Pro高出1.7倍效率,AI能處理的運算量多出2倍。
Zenbook S16作為文書機定位,保持輕薄特性,厚度僅1.1公分、重1.5kg 。外殼材質採用特殊的技術,取名為「Ceraluminum」,中文稱陶瓷鋁合金,將鋁材質在電解質中一層層氧化,分子會形成獨特的排列方式,最後變成表面特殊的霧面質感和色彩,這次一共有白灰雙色可選擇。
華碩Zenbook S16
華碩Zenbook S16材質為陶瓷鋁合金,進行特殊處理。
硬體上還有兩大特殊設計,包括 AI PC如今必備的Copilot熱鍵,可一鍵開啟Copilot互動,和鍵盤上方配置加強散熱的均溫板,降低鍵盤溫度 。
另外,華碩也預告,14吋版本的Zenbook S14將搭載新一代Intel Core Ultra處理器,預計2024年下半年上市。
售價資訊: 1,399美元起(約新台幣45,310元),即日起開放預購 。
華碩AI PC「ProArt」系列:主打多型態、耐用度高,為專業創作者而生
在創作者專業筆電ProArt系列中加入三款新成員,型態各不相同,包括最高階創作效能也最大台的P16、可把鍵盤翻轉到背面的PX13,以及可以把平板和鍵盤分開使用,僅0.85公斤的PZ13。
華碩AI PC發布會 ProArt系列
華碩AI PC發布會發表全新ProArt系列產品。
華碩AI PC發布會中秀出可以將螢幕和鍵盤分開成平板使用、僅0.85公斤的PZ13。
其中最高階的P16和P16和PX13搭載AMD Ryzen™ AI 300系列處理器及最高NVIDIA GeForce RTX 4070顯卡,帶來超過300 TOPS 的 AI算力。
ProArt系列強調機身輕巧卻保有軍規等級耐用,通過IP52等級測試,可以把筆電帶進沙漠、叢林、雪地等極端環境中使用。
華碩AI PC,有兩款AI軟體助攻
AI PC的時代,硬體和軟體是分離不開的關係,本次ProArt Creator Hub還加入兩款研發的AI軟體功能,StoryCube和MuseTree。
Muse Tree 就是讓AI協助你完成靈感的樹狀圖,可以先發想一些概念,例如手錶、運動等,AI會建議你特殊的色彩、材質,讓你可以拉近樹狀圖中,演變生長成不同的產品靈感。同時也可以繪製簡單的線條,讓AI幫你完成圖像設計。
華碩AI PC發布會 Muse Tree功能
Muse Tree功能可以協助進行靈感發想。
華碩AI PC發布會 ProArt功能
左圖為隨手畫出的簡單線條,右圖為AI協助完成的產品圖。
StoryCube則是協助設計人員整理雜亂的靈感 ,例如平時用手機、相機、GoPro等設備拍下靈感圖片,這款軟體可以幫你整理在同一條時間線中分門別類,也能輸入小孩、寵物等指令,讓AI幫你分類出一個專屬相簿。
華碩AI PC發布會 Muse Tree功能
StoryCube可以將不同設備拍攝的照片進行分類整理。
售價資訊:
P16:1,899美元起(約新台幣61,500元)
PX13:1,699美元起(約新台幣55,025元)
PZ13:售價未公開,今年第二季登場
華碩拚四大領域AI,看好AI PC帶動市場價格帶成長
除了PC外,會中也發表了AI伺服器解決方案、迷你電腦NUC、桌上型顯示器等產品,華碩共同執行長胡書賓在會中揭示,華碩將利用多樣化的產品線,鎖定四大領域力拚AI:
公有雲:「AI訓練」伺服器、PAAS服務
私有雲:「AI推論」伺服器、基礎建設服務
連網終端:智慧醫療、智慧製造、智慧城市、智慧零售
個人服務:AI PC、AI手機、個人工作用AI裝置
胡書賓於第一季法說會中曾指出,AI PC將帶動整體價格帶提高,比傳統PC增加100-150美元(約新台幣3,200-4,800元),對PC產業獲利結構將帶來正面影響,預計下半年會有換機需求出現,隨著產業全力動員,2026年,PC市場上將有超過50%都AI PC。
華碩共同執行長許先越則表示,AI PC要達到使用體驗完整,需要硬體、軟體、作業系統全面配合。這樣的特性,讓AI PC時代轉換為「打團戰」模式,華碩這次發布會展現和微軟、AMD等夥伴密切合作的成果,也算是未來AI PC發展的一次軍火展示。
華碩發表4款AI PC,4萬5就買得到!AI PC售價、效能如何?|數位時代 BusinessNext https://bit.ly/459HCLp
AI PC是什麼? AI PC是什麼?一張圖看懂AI PC供應鏈!哪些台廠吃得到? https://bit.ly/4c5NN5p
AI PC主要指的具備生成式AI功能的電腦,概念是將人工智慧整合到個人電腦,使其具有更高的性能,以便更有效地執行運算。
這類電腦搭載整合NPU的處理器,有強大的效能規格,讓PC可不透過聯網至雲端伺服器,直接在單機以強大算力,實現如透過簡單指令,快速生成文字、圖片、影像、音樂等生成式AI功能,可以提高個人隱私與降低資安風險。
AI PC定義是?需具備什麼條件?
市場對於AI PC尚未有明確的定義,到底要具備什麼條件才算是AI PC?在財訊雙週刊700期中曾訪問華碩共同執行長胡書賓,他認為軟硬體綜合起來,才能形成AI PC。
首先,現有PC硬體的CPU、GPU已具備AI運算能力,但用傳統的CPU來運算不是很有效率,為了要讓AI運算更有效率又要低耗電,就必須增加NPU(神經網路處理器)的單元,這是一個重要的基本要件。
再來是軟體,胡書賓認為AI軟體的重要性更勝於硬體。他表示,AI模型要小型化能落地到PC裝置,「如何在PC執行,AI模型的配套方案非常重要」。就微軟而言,能夠執行應用程式Copilot,即能定義為AI PC。
英特爾則定義,AI PC指的是搭載整合NPU的處理器,算力要求門檻是40 TOPS。(TOPS,Tera Operations Per Second:指衡量處理器運算能力的單位,1 TOPS 代表處理器每秒鐘可以進行一兆次操作。)
(2024/3/27更新)各家大廠對AI PC都有自己的解讀,而2024年3月英特爾在開發者活動上表示,微軟和英特爾聯合制定的AI PC定義,需有NPU、CPU和GPU,支援微軟Copilot的同時,鍵盤上更需設有Copilot專用鍵。
AI PC供應鏈 哪些台廠吃得到?
英特爾定調AI PC將成為PC產業回春的一大轉捩點,在2024年產業亮點中,AI PC也扮演關鍵角色。
從AI PC升級潮來看,最大贏家仍將會是護國神山台積電,主要原因就是受惠AI晶片投片,5奈米以下的高階製程出貨量大增,不只拉高毛利率,也帶動業績持續增長,抵消了消費電子庫存的衝擊。而各大廠開發具有學習能力的AI晶片,都必須借重台積電的先進製程與先進封裝。
在AI、邊緣運算趨勢催化下,持續往更高的傳輸速率演進的高速傳輸晶片供應商可望受惠。另外,由於AI高算力推升電源管理系統效能與精度,相關電源管理晶片廠商,可望在升級潮中迎來轉機。
AI PC是什麼?一張圖看懂AI PC供應鏈!哪些台廠吃得到? https://bit.ly/4c5NN5p
CPU, GPU, NPU, TPU 超簡易科普一文看懂 CPU, GPU, NPU, TPU 是什麼? | QNAP 部落格 https://bit.ly/3KrsVd7
其實 GPU、NPU、TPU 都是專用處理器,只是其擅長處理的任務並不相同,做為專用處理器,在一定程度都可以降低 CPU 工作負擔,使 CPU 的資源可進行其他運算。因此用戶需要哪個是根據使用者的應用與任務所決定。
CPU (Central Processing Unit),中央處理器
其核心數量較少,專為通用計算而設計。CPU 在 NAS 當中也可以視為 NAS 的核心大腦,負責執行作業系統跟應用程式所需的命令與程序,因此 NAS 系統跟應用程式的速度都與 CPU 效能有關。
GPU (Graphics Processing Unit) ,圖形處理器
為專門執行繪圖運算工作的微處理器,結構上GPU 由於具有數百或數千個計算單元(ALU),可並列執行大量計算可被分為嵌入式繪圖晶片與獨立顯示卡兩種。
GPU 除了常聽說的對於玩 3D 遊戲的彩圖計算有幫助以外, 對執行分析、深度學習和機器學習演算法尤其有用,用途並不限於圖像計算。
NPU(Neural network Processing Unit) 神經處理單元
NPU 是專為加速 AI 應用而設計,透過類似於人類的神經系統的處理器,因具備節能的特性, 可滿足長時間的使用,適合持續處理 AI 運算任務,例如圖片生成、人臉辨識等。
TPU (Tensor Processing Unit),張量處理器
TPU 是 Google 開發專門用於加速機器學習的處理器,與 GPU 相比,TPU 被設計並運用於大量的低精度計算。Google 於研究表明在使用神經網路推斷的 AI 運算任務中,TPU 的效能是當代 GPU 和 CPU 的 15 到 30 倍,但是生產的廠商少,市場供不應求,因此價格昂貴。
一文看懂 CPU, GPU, NPU, TPU 是什麼? | QNAP 部落格 https://bit.ly/3KrsVd7
DPU資料處理器,是延續這條思路發展出的最新產品,稱作CPU與GPU之外,未來運算的「第三大支柱」。DPU主要分擔資料中心內數據傳輸的工作,透過加速引擎和高效能網路介面,專門處理資料傳輸、壓縮、儲存、加密與分析工作。尤其在大規模的伺服器農場或伺服器機房內,使用DPU分擔CPU的工作負載,可釋放出中央處理器的運算力,用來處理更緊要的工作,DPU適合運用於運算密集的許多不同領域,包括大數據、AI人工智慧、機器學習和深度學習。
DPU(Data Processing Unit)資料處理器,是基礎架構層(IaaS)的專用處理器,DPU具備靈活可程式性,解決的是大流量網路封包處理佔用CPU問題。隨著資料中心建置、網路頻寬和資料量急劇成長,由於CPU效能成長速度放緩,出現了剪刀差現象,為了尋求效率更高的運算晶片,DPU由此產生,DPU的出現是異質運算的階段性標誌。 DPU可為實體機、虛擬化、容器化、私有雲、公有雲、混合雲、資料中心、智慧駕駛、5G通訊、元宇宙、金融及網路安全等技術提供支援。 CPU? GPU? DPU?傻傻分不清楚。 -電子工程專輯
DPU(Data Processing Unit 資料處理單元)
在電腦體系結構中,CPU 具有多種職責,例如運行您的應用程式、執行計算,同時它扮演著數據流量控制器的角色,在GPU、存儲、FPGA 等之間移動數據,因此CPU 更加以計算機為中心以資料為中心的架構的要求。新的架構應該讓資源直接存取網絡,讓他們最擅長的任務。
資料處理單元或DPU 應該扮演資料流量控制器的角色,從這個IO 密集型任務中卸載CPU,但它的效率比CPU 高幾個數量級,特別是DPU 應該從網路發送和接收資料包加密和壓縮伺服器周圍的大量數據並運行防火牆以保護伺服器免受濫用。 DPU 應該使分佈在伺服器上的異質運算和儲存資源能夠集中起來,以最大限度地提高利用率,從而降低電腦和儲存資源的總擁有成本。 DPU 等資料引擎將使資料中心能夠達到計算大量資料所需的效率和速度,許多雲端ETL 產品以分散式方式提供DPU 來執行資料處理,
大數據運算能力CPU、GPU 和DPU 有何不同_dpu gpu-CSDN博客 https://bit.ly/4bXzOP0
AI晶片與未來:DPU、GPU、NPU、ASIC與FPGA-電子工程專輯 https://bit.ly/45bFUck
目前市場上主要有通用類別(GPU 、DPU )、FPGA (半客製化)、ASIC (全客製化)三大類AI運算晶片。其中GPU目前市場使用率最高,商業化較成熟,全球最主要的供應商是英偉達。而以FPGA和ASIC架構研發出的AI晶片種類較多,目前尚處於發展探索階段,例如較知名的NPU 、TPU就是以ASIC架構為基礎設計的。
1. GPU :通用性最強,AI運算時代霸主
GPU ,源自於圖形處理的AI運算晶片。GPU (Graphics Processing Unit ),即圖形處理器,又稱為顯示核心、視覺處理器、顯示晶片,起初是專門在個人電腦、工作站、遊戲機和一些行動裝置(如平板電腦、智慧型手機等)上做影像和圖形相關運算工作的微處理器,是一種由大量運算單元組成的大規模平行運算架構,專為同時處理多重任務而設計。大數據時代,GPU被廣泛應用於資料中心、礦機、深度學習等領域。GPU晶片採用統一渲染架構,運算通用性最強,可適用於多種演算法,在演算法尚未定型的領域,GPU是最佳選擇。
GPU在AI運算市場銷售佔比最大,霸主地位穩固。目前大多數領域,AI計算演算法尚在不斷探索、優化階段,GPU仍是最佳選擇。根據智研顧問數據顯示,截至2021年8月,全球人工智慧的運算力主要以GPU晶片為主,2020年銷售額市佔率佔比約42.3% ,市場規模約38億美元,預測到2024年銷售額佔比提升至51.4% ,屆時全球人工智慧GPU晶片市場規模將達111億美元。
2. FPGA :半客製化晶片,靈活性高
FPGA是一種半客製化晶片。FPGA (Field -Programmable Gate Array ),現場可編程閘陣列,使用者可依自身的需求重複編程。FPGA的優點是既解決了客製化電路的不足,也克服了原有可程式元件閘電路數有限的缺點,對晶片硬體層可以靈活編譯,功耗小於CPU 、GPU ;缺點是硬體程式語言較難,開發門檻較高,晶片成本、價格較高。FPGA比GPU 、CPU更快是因為其具有客製化的結構。
CPU和GPU都屬於馮諾依曼結構,在這個結構中,執行單元可以執行任意指令,這需要有指令記憶體、譯碼器、各種指令的運算器等和共享記憶體。而FPGA的每個邏輯單元的功能在重編程時就已經確定,不需要指令和共享記憶體。但這也是FPGA的缺點,當處理的任務重複性不強、邏輯較為複雜時,FPGA效率就會低於使用馮諾依曼結構的處理器。
3. ASIC :專用性最強,追求極致效能
ASIC是一種為專門目的而設計的晶片(全定制)。ASIC特殊應用積體電路晶片,是一種根據特定演算法客製化的晶片架構,其客製化程度比GPU和FPGA相比更高。ASIC算力水準一般高於CPU 、GPU 、FPGA ,但初始投入大,專業性強縮減了其通用性,演算法一旦改變,運算能力會大幅下降,需要重新自訂。
算力需求增加,ASIC前景看好。隨著資料量的不斷增加和晶片製程的極限到來,對算力的訴求越來越難以被滿足。在此背景下,對於一些特定的領域,其資料量龐大,演算法逐漸固定,使用專為特定演算法設計的ASIC晶片成為了許多公司的首選。AI運算市場上比較火的TPU 、NPU等,都是ASIC專用晶片。
4. DPU :GPU之後分擔CPU算力另一晶片
DPU是一個全新的,用於在資料中心承擔網路和儲存等服務的處理器。DPU(Data Processing Unit) ,資料中心處理器是最新發展起來的專用處理器,主要是用來加速資料中心的安全、網路和儲存任務。它是繼CPU ,GPU之後,資料中心場景中的第三顆重要的算力晶片,為高頻寬、低延遲、資料密集的運算場景提供運算引擎。DPU將卸載CPU原本承擔的網路、儲存、安全、管理等服務,釋放CPU算力,同時對安全隱私進行高階的加密。在2021年4月的GTC大會上,英偉達總裁黃仁勳推出了NVIDIA BlueField-3 DPU及其配套軟體生態架構DOCA 。
DPU的提出能夠有效解決CPU和Memory之間傳輸頻寬的瓶頸。隨著資料量的增加,CPU和Memory之間的資料傳輸頻寬成了瓶頸。根據Fungible和AWS的統計,在大型資料中心中,流量處理佔了計算的30%左右。資料中心在節點間交換效率和可靠性以及節點內I/O切換效率比較低,DPU的出現是為了試圖解決這種松耦合的關係,從這方面加快整體運算速度。目前來看DPU只是提供更安全高效的網路、儲存等加速服務,但未來或將真正的以資料中心為運算單元,依靠DPU實現緊密耦合結構提升整體效率。
5. NPU和TPU :深度學習ASIC加速晶片
NPU是一種參考人體神經突觸的ASIC晶片。隨著深度學習神經網路的興起,CPU和GPU逐漸難以滿足深度學習的需要,專門用於神經網路深度學習的處理器NPU(Neural Processing Unit)應運而生。NPU採用「資料驅動平行運算」的架構,特別擅長處理影片、影像類別的大量多媒體資料。區別於CPU以及GPU所遵循的馮諾依曼架構,NPU參考人體的神經突觸結構,將儲存與運算結為一體。
NPU顯著提高了深度學習晶片的運算速度。深度學習晶片主要分為訓練晶片和推理晶片。深度學習神經網路演算法像人一樣,需要學習知識(訓練),之後就可以把學習到的知識運用到工作中去(推理)。訓練過程需要大量的資料樣本來計算,而推理過程需要用少數的資料快速得出推理結果。 NPU在電路層模擬人類神經元和突觸,相較於GPU的馮諾依曼結構,NPU透過突觸權重實現儲存運算整合,提高運作效率,因此NPU比GPU更擅長推理。
TPU ,專為Google Tensorflow框架設計的ASIC晶片。張量處理器(Tensor Processing Unit )是Google為機器學習定制的ASIC晶片,專為Google的深度學習框架TensorFlow而設計。Google在2016年的Google I/O年會上首次公佈了TPU ,不過在此之前TPU已在Google內部的一些項目中使用了一年多,如穀歌街景服務、RankBrain以及其旗下DeepMind公司的圍棋軟體AlphaGo等都用到了TPU 。TPU只完成推理過程,訓練過程由GPU完成。
新運算模式不斷出現,底層架構持續創新
AI運算蓬勃發展,新運算模式不斷出現。隨著各大廠商對AI晶片的不斷研究,晶片的運算性能不斷提升,晶片種類不斷增加。截至2021年8月,GPU在AI運算市佔率最大,但FPGA 、ASIC的發展迅速,可望取代部分GPU的業務。同時,DPU的持續運用也將有效改善及加速網路資料傳輸運算速度,協同CPU 、GPU高效運作。
目前CPU仍處於運算晶片中的核心地位,GPU 、DPU目前也只能卸載CPU部分功能,加速CPU處理、運算的效率,並沒有根本動搖CPU地位。目前在人工智慧、深度學習和雲端運算等領域以CPU+GPU為主要場景,CPU+FPGA 、CPU+NPU等模式不斷推出,未來可望出現更先進的模式。
AI晶片與未來:DPU、GPU、NPU、ASIC與FPGA-電子工程專輯 https://bit.ly/45bFUck
在這個科技飛速發展的時代,AI 人工智慧已經成為了人類生活中不可或缺的一部分。隨著 AI 應用的不斷擴展和深化,除了過去大家常見的中央處理器(CPU)以及圖形處理器(GPU)之外,各種晶片技術應運而生,以滿足不同領域的需求。
一文看懂 NPU、TPU、LPU 的分別 - INSIDE https://bit.ly/3wZYis5
其中,神經處理器(Neural network Processing Unit,NPU)、張量處理器(Tensor Processing Unit,TPU),和語言處理器(Language Processing Unit,LPU)等晶片更是在近期受到廣泛關注。
簡單來說,NPU、TPU、LPU 各自有擅長處理的任務,屬於專用處理器。使用者可以根據需求,使用不同的專用處理器,來有效降低 CPU 的工作負擔。
神經處理器(NPU)
NPU 的全稱為神經處理器(Neural Processing Unit),它是一種類似人類神經系統的處理器,模擬人類大腦的工作方式,可以整合到 CPU、GPU 或特殊應用積體電路(ASIC)中,也可以是獨立晶片,總之就是更適合用於實現機器學習和深度學習等 AI 應用的一種處理器。
NPU 最大的特點在於能提高深度學習模型的運行速度和效率。和傳統的 CPU 或 GPU 相比,NPU 通常具有更高的計算能力和更低的功耗,適合處理長時間或是具有大量數據的任務,包括臉部辨識、語音辨識、自然語言處理等 AI 應用。
張量處理器(TPU)
TPU 是指張量處理器(Tensor Processing Unit),是 Google 為了加速機器學習而開發的處理器,也針對深度神經網路的訓練和推理進行了加強。簡單來說,TPU 的設計初衷,就是為了最大化神經網路工作負載的效率,以提供更快速和成本效益的計算。
TPU 的設計特別適用於大規模的低精度運算。和一般的 CPU 或 GPU 相比,TPU 在處理大型神經網路時,具有更高的效率和性能,大約是現在 GPU 和 CPU 的 15 到 30 倍,甚至還能節省大量的能源成本。
Google 自家不少 AI 產品和服務,如 Google 搜尋、語音助理等,都在背後使用了 TPU 來提供更快速和穩定的服務。Google 也從 2021年開始,在自家的 Pixel手機中塞入 TPU ,讓語音助理和相片處理,都能透過 AI 提供更好的使用者體驗。
NPU 和 TPU 定位上雖然有點相似,但也有很多不同之處。除了設計重點上 TPU 具有針對性、NPU 比較廣泛,以及支援的生態系有所不同之外,從價格上來看,由於 NPU 需要更多元件和更複雜的設計,因此成本也更高一些。
另外,NPU 使用的架構會將記憶體和處理單元分開,但 TPU 則是將兩者整合在一個晶片上。NPU 的最大效能雖然也比 TPU 強,但同時也具有更高的延遲和功耗。
語言處理器(LPU)
LPU 是語言處理器(Language Processing Unit)的簡稱,是一種新的 AI 晶片,並且採用靜態隨機存取記憶體(SRAM),將資料以恆常狀態進行儲存,以加快運算速度。
雖然目前 LPU 的應用只限語言模型的推理運作,但 LPU 最大的優勢在於產生文字、回應的速度非常快,可以讓 AI 更即時的和人類進行溝通、對話
一文看懂 NPU、TPU、LPU 的分別 - INSIDE https://bit.ly/3wZYis5
隨著人工智慧、深度學習的春風吹遍世界各地,各類晶片名詞GPU, TPU, DPU, NPU, BPU陸續出現在人們的視野,這些都是什麼呢?
首先介紹下這些字的英文全名為
CPU全名為:Central Processing Unit, 即中央處理器;
GPU全名為:Graphics Processing Unit, 即影像處理器;
TPU全名為:Tensor Processing Unit, 即張量處理器;
DPU全名為:Deep learning Processing Unit, 即深度學習處理器;
NPU全名為:Neural network Processing Unit, 即神經網路處理器;
BPU全名為:Brain Processing Unit, 即大腦處理器。
CPU
CPU應該是大家最常見的。主要包括運算器(ALU, Arithmetic and Logic Unit)和控制單元(CU, Control Unit),除此之外還包括若干暫存器、高速緩存器和它們之間通訊的資料、控制及狀態的匯流排。 CPU遵循的是馮諾依曼架構,也就是儲存程式、順序執行。一條指令在CPU中執行的過程是:讀取到指令後,透過指令匯流排送到控制器中進行解碼,並發出對應的操作控制訊號。然後運算器依照操作指令對資料進行計算,並透過資料匯流排將所得的資料存入資料快取器。因此,CPU需要大量的空間去放置儲存單元和控制邏輯,相較之下運算能力只佔據了很小的一部分,在大規模平行運算能力上極受限制,而更擅長於邏輯控制。
CPU結構簡化圖
GPU
為了解決CPU在大規模平行運算中遇到的困難, GPU應運而生,採用數量眾多的運算單元和超長的管線,如名字一樣,圖形處理器,GPU善於處理影像領域的運算加速。但GPU無法單獨運作,必須由CPU控制呼叫才能運作。 CPU可單獨作用,處理複雜的邏輯運算和不同的資料類型,但當需要大量的處理類型統一的資料時,則可呼叫GPU進行平行計算。近年來,人工智慧的興起主要依賴大數據的發展、理論演算法的完善和硬體運算能力的提升。其中硬體的發展則歸功於GPU的出現。
CPU、GPU微架構比較圖
TPU
人工智慧旨在為機器賦予人的智能,機器學習是實現人工智慧的強大方法。所謂機器學習,即研究如何讓電腦自動學習的學科。 TPU就是這樣一款專用於機器學習的晶片,它是Google於2016年5月提出的一個針對Tensorflow平台的可程式AI加速器,其內部的指令集在Tensorflow程式變化或更新演算法時也可以運作。 TPU可以提供高吞吐量的低精度運算,用於模型的前向運算而不是模型訓練,且能效(TOPS/w)更高。在Google內部,CPU,GPU,TPU均獲得了一定的應用,相較於GPU,TPU更類似於DSP,儘管運算能力略有遜色,其功耗大大降低。然而,TPU,GPU的應用都要受到CPU的控制。
Google TPU 產品圖
DPU
DPU深度學習處理器最早由國內深鑑科技提出,基於Xilinx可重構特性的FPGA晶片,設計專用的深度學習處理單元(可基於現有的邏輯單元,設計並行高效的乘法器及邏輯電路,屬於IP範疇),且抽像出客製化的指令集與編譯器(而非使用OpenCL),以實現快速的開發與產品迭代。事實上,深鑑提出的DPU屬於半客製化的FPGA。
深鑑「雨燕」DPU平台
NPU
NPU,神經網路處理器,在電路層模擬人類神經元和突觸,並且用深度學習指令集直接處理大規模的神經元和突觸,一條指令完成一組神經元的處理。相較於CPU中所採取的儲存與運算相分離的馮諾伊曼結構,NPU透過突觸權重實現儲存與運算一體化,從而大大提高了運作效率。 NPU的典型代表有國內的寒武紀晶片和IBM的TrueNorth,中星微電子的「星光智慧一號」雖說對外號稱是NPU,但其實只是DSP,僅支援網路正向運算,無法支援神經網路訓練。而且從儲存結構來看,該款晶片是基於傳統的片上存儲,而非神經網路晶片的便攜式儲存。
BPU
BPU, 大腦處理器,是由地平線科技提出的嵌入式人工智慧處理器架構。第一代是高斯架構,第二代是伯努利架構,第三代是貝葉斯架構。目前地平線已經設計出了第一代高斯架構,並與英特爾在2017年CES展會上聯合推出了ADAS系統。傳統CPU晶片是做所有事情,所以一般採用串列結構。 BPU主要是用來支撐深度神經網絡,例如影像、語音、文字、控制等方面的任務,而不是去做所有的事情。此外,深度神經網路的運算結構比較特殊,例如高度的平行化、時間域上的遞歸、中間節點的稀疏等,用BPU來實現會比在CPU上用軟體實現要高效,一般來說會提高2 -3個數量級。然而,BPU一旦生產,不可再編程,必須在CPU控制下使用。
GPU , TPU , DPU , NPU , BPU這些到底是些什麼呢? - 經驗- 與非網 https://bit.ly/4e14Nvg
CPU vs. GPU:淺談伺服器的兩大運算力 - GIGABYTE 技嘉科技
CPU vs. GPU:淺談伺服器的兩大運算力 - GIGABYTE 技嘉科技
CPU、GPU、DPU、TPU、NPU...傻傻分不清楚?實力掃盲-安排!
2021-07-30CPU、GPU、DPU、TPU、NPU...傻傻分不清楚?實力掃盲-安排!_控制 https://bit.ly/4cadYrH
人工智慧的發展離不開算力的支持,算力又是依附於各種硬體設備的,沒有了算力設備的加持,就好比煉丹少了丹爐一樣,可想而知,人工智慧智能也就無用武之地了。以深度學習為主的人工智慧方向的發展更是離不開強大的算力支持。隨著深度學習的不斷發展,各種各樣的晶片也逐漸拋頭露面,見過的,沒見過的,聽過的沒有聽過的都出現在眼前,一下有些眼花繚亂,一時竟不知選擇哪個?當然前提是不差錢。
本學徒在打雜的時候就發現了眾多的XPU,例如GPU, TPU, DPU, NPU, BPU……,各種不同的XPU還分不同等級的系列,價格也大不相同,要起錢來一個比一個兇猛。突然覺得這玩意根本就不是我們這些窮人玩的,雖然當時看的頭暈目眩,內心波濤洶湧,但是仍然還要表現的波瀾不驚才行,畢竟做為一名資深的煉丹學徒,還是要有最基本的心裡素質的。
東西貴是貴,但是擋不住看起來真香啊。那麼接下了,本學徒就跟大家介紹一些常見的、以及不常見的XPU吧。
首先介紹一下這些常見的XPU的英文全名:
CPU全名為:Central Processing Unit, 中央處理器;
GPU全名為:Graphics Processing Unit, 影像處理器;
TPU全名為:Tensor Processing Unit, 張量處理器;
DPU全名為:Deep learning Processing Unit, 深度學習處理器;
NPU全名為:Neural network Processing Unit, 神經網路處理器;
BPU全名為:Brain Processing Unit, 大腦處理器。
下面就來科普一下這些所謂的“XPU”
中央處理器
CPU( Central Processing Unit, 中央處理器)一般是指的設備的「大腦」,是整體佈局、發布執行命令、控制行動的總指揮。
CPU主要包括運算器(ALU, Arithmetic and Logic Unit)和控制單元(CU, Control Unit),除此之外還包括若干暫存器、高速緩存器和它們之間通訊的資料、控制及狀態的匯流排。 CPU遵循的是馮諾依曼架構,也就是儲存程式、順序執行。一條指令在CPU中執行的過程是:讀取到指令後,透過指令匯流排送到控制器中進行解碼,並發出對應的操作控制訊號。然後運算器依照操作指令對資料進行計算,並透過資料匯流排將所得的資料存入資料快取器。因此,CPU需要大量的空間去放置儲存單元和控制邏輯,相較之下運算能力只佔據了很小的一部分,在大規模平行運算能力上極受限制,而更擅長於邏輯控制。
簡單一點來說CPU主要就是三個部分:運算單元、控制單元和儲存單元,其架構如下圖所示:
圖:CPU微架構示意圖
什麼?這個架構太複雜,記不住?來,那我們換一種表示方法:
圖:CPU微架構示意圖
嗯,大概就是這個意思。
從字面上我們也很容易理解,上面的計算單元主要執行計算機的算術運算、移位等操作以及地址運算和轉換;而存儲單元主要用於保存計算機在運算中產生的數據以及指令等;控制單元則對電腦發出的指令進行解碼,並且還要發出為完成每條指令所要執行的各個操作的控制訊號。
所以在CPU中執行一條指令的過程基本上是這樣的:指令被讀取到後,透過控制器(黃色區域)進行譯碼被送到總線的指令,並會發出對應的操作控制訊號;然後透過運算器(綠色區域)依照操作指令對輸入的資料進行計算,並透過資料匯流排將所得的資料存入資料快取器(大塊橘色區域)。過程如下圖所示:
圖:CPU執行指令圖
這個過程看起來是不是有點複雜?沒關係,這張圖可以不用記住,我們只要知道,CPU遵循的是馮諾依曼架構,其核心就是:儲存運算程序,依照順序執行。
說到這裡,有沒有看出問題,沒錯——在上面的這個結構圖中,負責計算的綠色區域佔的面積似乎太小了,而橙色區域的緩存Cache和黃色區域的控制單元佔據了大量空間。
高中化學有句老生常談的話叫:結構決定性質,放在這裡也非常適用。
因為CPU的架構中需要大量的空間去放置儲存單元(橘色部分)和控制單元(黃色部分),相比之下計算單元(綠色部分)只佔據了很小的一部分,所以它在大規模並行計算能力上極受限制,而更擅長於邏輯控制。
另外,因為遵循馮諾依曼架構(儲存程序,順序執行),CPU就像是個一板一眼的管家,人們吩咐它的事情它總是一步一步來做,當做完一件事情才會去做另一件事情,從來不會同時做幾件事。但隨著社會的發展,大數據和人工智慧時代的來臨,人們對更大規模與更快處理速度的需求急速增加,這位管家漸漸變得有些力不從心。
於是,大家就想,我們能不能把多個處理器都放在同一塊晶片上,讓它們一起來做事,相當於有了多位管家,這樣效率不就提高了嗎?
沒錯,就是這樣的,我們使用的GPU就因此而誕生了。
圖形處理器
我們在正式了解GPU之前,還是先來了解上文中提到的一個概念-並行計算。
平行計算(Parallel Computing)是指同時使用多種運算資源解決運算問題的過程,是提高電腦系統運算速度與資料處理能力的有效手段。它的基本思想是用多個處理器來共同解同一個問題,即將被求解的問題分解成若干個部分,各部分均由一個獨立的處理機來並行計算完成。
平行計算可分為時間上的平行和空間上的平行。
時間上的並行是指流水線技術,比如說工廠生產食品的時候分為四個步驟:清洗-消毒-切割-包裝。
如果不採用流水線,一個食品完成上述四個步驟後,下一個食品才進行處理,耗時且影響效率。但是採用流水線技術,就可以同時處理四個食品。這就是平行演算法中的時間並行,在同一時間啟動兩個或兩個以上的操作,大大提高計算效能。
圖:流水線示意圖
空間上的並行是指多個處理機並發的執行計算,即透過網路將兩個以上的處理機連接起來,達到同時計算同一個任務的不同部分,或者單個處理機無法解決的大型問題。
例如小李準備在植樹節種三棵樹,如果小李1個人需要6個小時才能完成任務,植樹節當天他叫來了好朋友小紅、小王,三個人同時開始挖坑植樹,2個小時後每個人都完成了一顆植樹任務,這就是平行演算法中的空間並行,將一個大任務分割成多個相同的子任務,來加快問題解決速度。
所以說,如果讓CPU來執行這個種樹任務的話,它就會一棵一棵的種,花上6個小時的時間,但是讓GPU來種樹,就相當於好幾個人同時在種。
為了解決CPU在大規模平行運算中遇到的困難, GPU應運而生,GPU全稱為Graphics Processing Unit,中文為圖形處理器,就如它的名字一樣,圖形處理器,GPU最初是用在個人電腦、工作站、遊戲機和一些行動裝置(如平板電腦、智慧型手機等)上運行繪圖運算工作的微處理器。
GPU採用數量眾多的運算單元和超長的管線,善於處理影像領域的運算加速。但GPU無法單獨運作,必須由CPU控制呼叫才能運作。 CPU可單獨作用,處理複雜的邏輯運算和不同的資料類型,但當需要大量的處理類型統一的資料時,則可呼叫GPU進行平行計算。近年來,人工智慧的興起主要依賴大數據的發展、演算法模型的完善和硬體運算能力的提升。其中硬體的發展則歸功於GPU的出現。
為什麼GPU特別擅長處理影像資料呢?這是因為影像上的每一個像素點都有被處理的需要,而且每個像素點處理的過程和方式都十分相似,也就成了GPU的天然溫床。
GPU簡單架構如下圖所示:
圖:GPU微架構示意圖
從架構圖我們就能很明顯的看出,GPU的組成相對簡單,有數量眾多的運算單元和超長的管線,特別適合處理大量的型別統一的資料。
但GPU無法單獨運作,必須由CPU控制呼叫才能運作。 CPU可單獨作用,處理複雜的邏輯運算和不同的資料類型,但當需要大量的處理類型統一的資料時,則可呼叫GPU進行平行計算。
注意:GPU中有很多的運算器ALU和很少的快取cache,快取的目的不是保存後面需要存取的資料的,這點和CPU不同,而是為線程thread提高服務的。如果有很多線程需要訪問同一個相同的數據,快取會合併這些訪問,然後再去訪問dram。
再把CPU和GPU兩者放在一張圖上看下對比,就非常一目了然了。
GPU的工作大部分都計算量大,但沒什麼技術含量,而且要重複很多很多次。
借用知乎上某大神的說法,就像你有工作需要計算幾億次一百以內加減乘除一樣,最好的辦法就是僱上幾十個小學生一起算,一人算一部分,反正這些計算也沒什麼技術含量,純粹體力活而已;而CPU就像老教授,積分微分都會算,就是工資高,一個老教授能頂二十個小學生,你要是富士康你僱哪個?
GPU就是用很多簡單的運算單元去完成大量的運算任務,純粹的人海戰術。這種策略基於一個前提,就是小學生A和小學生B的工作沒有什麼依賴性,是互相獨立的。
但有一點需要強調,雖然GPU是為了圖像處理而生的,但是我們透過前面的介紹可以發現,它在結構上並沒有專門為圖像服務的部件,只是對CPU的結構進行了優化與調整,所以現在GPU不僅可以在影像處理領域大顯身手,它還被用來科學計算、密碼破解、數值分析,海量資料處理(排序,Map-Reduce等),金融分析等需要大規模平行運算的領域。
所以GPU也可以認為是一種較通用的晶片。
熱塑性聚氨酯
依照上文所述,CPU和GPU都是較為通用的晶片,但有句老話說得好:萬用工具的效率永遠比不上專用工具。
隨著人們的運算需求越來越專業化,人們希望有晶片可以更符合自己的專業需求,這時,便產生了ASIC(專用積體電路)的概念。 Tensor 是什麼? - HackMD
ASIC是指依產品需求不同而客製化的特殊規格積體電路,由特定使用者要求和特定電子系統的需要而設計、製造。當然這概念不用記,簡單來說就是客製化晶片。
因為ASIC很“專一”,只做一件事,所以它就會比CPU、GPU等能做很多件事的晶片在某件事上做的更好,實現更高的處理速度和更低的能耗。但相應的,ASIC的生產成本也非常高。
而TPU(Tensor Processing Unit, 張量處理器)就是Google專為加速深層神經網路運算能力而研發的一款晶片,其實也是一款ASIC。 Tensor 是什麼? - HackMD
人工智慧旨在為機器賦予人的智能,機器學習是實現人工智慧的強大方法。所謂機器學習,即研究如何讓電腦自動學習的學科。 TPU就是這樣一款專用於機器學習的晶片,它是Google於2016年5月提出的一個針對Tensorflow平台的可程式AI加速器,其內部的指令集在Tensorflow程式變化或更新演算法時也可以運作。 TPU可以提供高吞吐量的低精度運算,用於模型的前向運算而不是模型訓練,且能效(TOPS/w)更高。在Google內部,CPU,GPU,TPU均獲得了一定的應用,相較於GPU,TPU則較類似DSP,儘管運算能力略有遜色,但其功耗大大降低,而且運算速度非常的快。然而,TPU,GPU的應用都要受到CPU的控制。 Tensor 是什麼? - HackMD
圖:Google第二代TPU
一般公司是很難承擔為深度學習開發專門ASIC晶片的成本和風險的,但谷歌是誰,人家會差錢嗎?
開個玩笑。更重要的原因是谷歌提供的許多服務,包括谷歌圖像搜尋、谷歌照片、谷歌雲視覺API、谷歌翻譯等產品和服務都需要用到深度神經網路。基於Google本身龐大的量,開發一種專門的晶片開始具備規模化應用(大量分攤研發成本)的可能。
如此看來,TPU登上歷史舞台也順理成章了。
原來很多的機器學習以及影像處理演算法大部分都跑在GPU與FPGA(半客製化晶片)上面,但這兩種晶片都還是一種通用性晶片,所以在效能與功耗上還是不能更緊密的適配機器學習演算法,而且Google一直堅信偉大的軟體將在偉大的硬體的幫助下更加大放異彩,所以穀歌便想,我們可不可以做出一款專用機機器學習算法的專用芯片,TPU便誕生了。
據稱,TPU與同期的CPU和GPU相比,可提供15-30倍的效能提升,以及30-80倍的效率(效能/瓦特)提升。初代的TPU只能做推理,要依賴Google雲來即時收集資料並產生結果,而訓練過程還需要額外的資源;而第二代TPU既可以用於訓練神經網絡,又可以用於推理。
看到這裡你可能會問了,為什麼TPU會在效能上這麼屌呢? TPU是怎麼做到這麼快?
(1)深度學習的客製化研發:TPU 是Google專為加速深層神經網路運算能力而研發的一款晶片,其實也是一款ASIC(專用積體電路)。
(2)大規模片上內存:TPU 在晶片上使用了高達24MB 的局部內存,6MB 的累加器內存以及用於與主控處理器進行對接的內存。
(3)低精度(8-bit) 運算:TPU 的高效能也來自於對於低運算精度的容忍,TPU 採用了8-bit 的低精度運算,也就是說每一步操作TPU 將會需要更少的電晶體.
嗯,谷歌寫了好幾篇論文和博文來說明這一原因,所以僅在這裡拋磚引玉一下。
圖:TPU 各模組的框圖
圖:TPU晶片佈局圖
如上圖所示,TPU在晶片上使用了高達24MB的局部內存,6MB的累加器內存以及用於與主控處理器進行對接的內存,總共佔芯片面積的37%(圖中藍色部分)。
這表示Google充分意識到了片外記憶體存取是GPU能源效率比低的罪魁禍首,因此不惜成本的在晶片上放了巨大的記憶體。相較之下,英偉達同時期的K80只有8MB的片上內存,因此需要不斷地去存取片外DRAM。
另外,TPU的高性能也來自於對於低運算精度的容忍。研究結果表明,低精度運算帶來的演算法準確率損失很小,但是在硬體實現上卻可以帶來巨大的便利,包括功耗更低、速度更快、佔晶片面積更小的運算單元、更小的記憶體頻寬需求等...TPU採用了8位元的低精度運算。
其它更多的資訊可以去翻翻谷歌的論文。
到目前為止,TPU其實已經做了很多事情了,例如機器學習人工智慧系統RankBrain,它是用來幫助Google處理搜尋結果並為用戶提供更相關搜尋結果的;還有街景Street View,用來提高地圖與導航的準確性的;當然還有下圍棋的計算機程式AlphaGo!
神經網路處理單元
講到這裡,相信大家對這些所謂的「XPU」的套路已經有了一定了解,我們接著來。
所謂NPU(Neural network Processing Unit), 即神經網路處理器。神經網路處理器(NPU)採用「資料驅動並行運算」的架構,特別擅長處理視訊、影像類別的大量多媒體資料。 NPU處理器專為物聯網人工智慧而設計,用於加速神經網路的運算,解決傳統晶片在神經網路運算時效率低下的問題。
在GX8010中,CPU和MCU各有一個NPU,MCU中的NPU相對較小,習慣稱為SNPU。 NPU處理器包含了乘加、啟動函數、二維資料運算、解壓縮等模組。乘加模組用於計算矩陣乘加、卷積、點乘等功能,NPU內部有64個MAC,SNPU有32個。
激活函數模組採用最高12階參數擬合的方式實現神經網路中的激活函數,NPU內部有6個MAC,SNPU有3個。二維資料運算模組用來實現一個平面的運算,如降採樣、平面資料拷貝等,NPU內部有1個MAC,SNPU有1個。解壓縮模組用於對權重資料的解壓縮。為了解決物聯網設備中記憶體頻寬小的特點,在NPU編譯器中會對神經網路中的權重進行壓縮,在幾乎不影響精度的情況下,可以實現6-10倍的壓縮效果。
既然叫神經網路處理器,顧名思義,這傢伙是想用電路模擬人類的神經元和突觸結構啊!
怎麼模仿?那就得先來看看人類的神經結構──生物的神經網路由若干人工神經元結點互聯而成,神經元之間透過突觸兩兩連接,突觸記錄了神經元之間的聯繫。
同志們,高中生物還記得嗎?
如果想用電路模仿人類的神經元,就得把每個神經元抽象化為一個激勵函數,該函數的輸入由與其相連的神經元的輸出以及連接神經元的突觸共同決定。
為了表達特定的知識,使用者通常需要(透過某些特定的演算法)來調整人工神經網路中突觸的取值、網路的拓樸結構等。這個過程稱為“學習”。
在學習之後,人工神經網路可透過習得的知識來解決特定的問題。
這時不知道大家有沒有發現問題-原來,由於深度學習的基本操作是神經元和突觸的處理,而傳統的處理器指令集(包括x86和ARM等)是為了進行通用運算發展起來的,其基本操作為算術操作(加減乘除)和邏輯操作(與或非),往往需要數百甚至上千條指令才能完成一個神經元的處理,深度學習的處理效率不高。
這時就必須另闢蹊徑-突破經典的馮諾伊曼結構!
神經網路中儲存和處理是一體化的,都是透過突觸權重來體現。 而馮·諾伊曼結構中,儲存和處理是分離的,分別由記憶體和運算器來實現,二者之間存在著巨大的差異。當用現有的基於馮諾伊曼結構的經典電腦(如X86處理器和英偉達GPU)來跑神經網路應用時,就不可避免地受到儲存和處理分離式結構的限制,因而影響效率。這也就是專門針對人工智慧的專業晶片能夠對傳統晶片有一定先天優勢的原因之一。
2016年6 月20 日,中星微數位多媒體晶片技術國家重點實驗室在北京宣布,已研發成功了中國首款嵌入式神經網路處理器(NPU)晶片,成為全球首顆具備深度學習人工智慧的嵌入式視訊擷取壓縮編碼系統級晶片,取名為「星光智慧一號」。
NPU的典型代表還有國內的寒武紀晶片和IBM的TrueNorth。以中國的寒武紀為例,DianNaoYu指令直接面對大規模神經元和突觸的處理,一條指令即可完成一組神經元的處理,並對神經元和突觸資料在晶片上的傳輸提供了一系列專門的支援。
用數字來說話,CPU、GPU與NPU相比,會有百倍以上的效能或能耗比差距-以寒武紀團隊過去和Inria聯合發表的DianNao論文為例-DianNao為單核心處理器,主頻為0.98GHz,峰值效能達每秒4,520億次神經網路基本運算,65nm製程下功耗為0.485W,面積3.02平方毫米mm。
華為mate10所使用的麒麟970晶片,就整合了寒武紀的NPU,NPU是麒麟970處理器的最大特徵,專業來說,它相當於是設立了一個專門的AI硬體處理單元—NPU,主要用來處理海量的AI數據。 NPU是麒麟970晶片中,搭載的一顆用於神經元計算的獨立處理單元,英文名Neural Network Processing Unit,簡稱NPU,中文含義為“神經元網絡”,它的功能主要是“A new brain in your mobile」,簡單地說,借助這個玩意兒,你的手機或許會變得更聰明一些。
簡單地說,由於神經元分佈是網狀結構,因此能夠實現發散式的信息處理及存儲,使得處理與存儲的效率大大提高,並有助於機器學習(啊,我的手機都開始認真學習了),沒錯和我們平常所說的「發散性思考」有些像。
由於神經網路演算法及機器學習需要涉及大量的資訊處理,而當下的CPU / GPU 都無法達到如此高效的處理能力,所以需要有一個獨立的處理晶片來做這個事,麒麟970 晶片中的這個NPU 便是這樣的一個角色。
華為mate10的手機有了NPU,才可以實現所謂的照片優化功能,以及保證手機用了很長時間後還能不卡(當然也得真正用了才能知道有沒有宣傳的這麼好)。
另外,以往我們的手機無法知道一張圖片裡,除了我們的臉之外,還有些什麼,而如今借助NPU 這類晶片,手機能夠知道你在哪裡拍了什麼照片,照片中有什麼著名的建築或是哪條街,同時貓啊狗啊也能幫你分析出來,甚至為他們設一張照片專輯。
當然,經過長期與大量的學習後,手機便能在你拍攝的過程中即時分析拍攝場景,並分別針對不同的場景進行相機參數的設置,從而實現「隨手拍出好照片」
還可以透過了解使用者經常在哪些地方做什麼事情,來分析使用者的使用習慣,目的是在經過一段時間的學習之後,自動為使用者在某些場景實現某些功能。此外,還能分析出機主的用戶畫像,並針對性地做系統資源優化(如電量、性能、運存等),讓手機真正達到越用越貼心。
PS,中星微電子的「星光智慧一號」雖說對外號稱是NPU,但其實只是DSP,僅支援網路正向運算,無法支援神經網路訓練。
在我們了解了以上這些知識的基礎上,我們再來理解BPU和DPU就更容易了。
BPU
Brain Processing Unit (大腦處理器)。地平線機器人(Horizon Robotics)以BPU 來命名自家的AI 晶片。地平線是一家成立於2015 年的start-up,總部在北京,目標是「嵌入式人工智慧全球領導者」。地平線的晶片未來將直接應用於自己的主要產品中,包括:智慧駕駛、智慧生活和智慧城市。地平線機器人的公司名容易讓人誤解,以為是做「機器人」的,其實不然。地平線做的不是“機器”的部分,是在做“人”的部分,是在做人工智慧的“大腦”,所以,其處理器命名為BPU。相較於國內外其他AI 晶片start-up 公司,第一代是高斯架構,第二代是伯努利架構,第三代是貝葉斯架構。目前地平線已經設計了第一代高斯架構,並與英特爾在2017年CES展會上聯合推出了ADAS系統(高級駕駛輔助系統)。 BPU主要是用來支撐深度神經網路,比在CPU上用軟體實現更有效率。然而,BPU一旦生產,不可再編程,必須在CPU控制下使用。 BPU 已經被地平線申請了註冊商標,其他公司就別打BPU 的主意了。
Biological Processing Unit。一個口號「21 世紀是生物學的世紀」忽悠了無數的有志青年跳入了生物領域的大坑。其實,這句話需要這麼理解,生物學的進展會推動21 世紀其他學科的發展。例如,人類腦神經系統的研究成果就會推動AI 領域的發展,SNN 結構就是人類腦神經元的模擬。不管怎麼說,隨著時間的推移,坑總會被填平的。不知道生物處理器在什麼時間會有質的發展。
Bio-Recognition Processing Unit。生物特徵辨識現在已經不是紙上談兵的事情了。指紋辨識已經是近來智慧型手機的標配,電影裡的黑科技虹膜辨識也上了手機,聲紋辨識可以支付了... 不過,除了指紋辨識有專門的ASIC 晶片外,其他生物辨識基本上都是sensor 加上通用cpu/dsp 的方案。不管怎樣,這些晶片都沒佔用BPU 或BRPU 這個寶貴位置。
D 是Deep Learning 的首字母,以Deep Learning 開頭來命名AI 晶片是一種很自然的思路。
資料處理單元
Deep-Learning Processing Unit(深度學習處理器)。 DPU 並不是哪家公司的專屬術語。在學術圈,Deep Learning Processing Unit(或processor)經常被提及。例如ISSCC 2017 新增的一個session 的主題就是Deep Learning Processor。以DPU 為目標的公司如下。
Deephi Tech(深鑑) 深鑑是一家位於北京的start-up,新創團隊有著深厚的清華背景。深鑑將其開發的基於FPGA 的神經網路處理器稱為DPU。到目前為止,深鑑公開發布了兩款DPU:亞里斯多德架構和笛卡兒架構,分別針對CNN 以及DNN/RNN。雖然深鑑號稱是做基於FPGA 的處理器開發,但是從公開管道可以看到的招聘資訊以及非公開的業內交流來看,其做晶片已成事實。
TensTorrent 一家位於Toronto 的start-up,研發專為深度學習和智慧硬體設計的高效能處理器,技術人員來自NVDIA 和AMD。
Deep Learning Unit。深度學習單元。 Fujitsu(富士通)最近高調宣布了自家的AI 晶片,命名為DLU。名字雖然沒什麼創意,但可以看到DLU 已經被富士通標了“TM”,雖然TM 也沒啥用。在其公佈的資訊裡可以看到,DLU 的ISA 是重新設計的,DLU 的架構中包含眾多小的DPU(Deep Learning Processing Unit)和幾個大的master core(控制多個DPU 和memory 存取)。每個DPU 中又包含了16 個DPE(Deep-Learning Processing Element),共128 個執行單元來執行SIMD 指令。富士通預計2018 財年內推出DLU。
Deep Learning Accelerator。深度學習加速器。 NVIDA 宣布將這個DLA 開源,為業界帶來了不小的波瀾。大家都在猜測開源DLA 會為其他AI 公司帶來什麼。參考這篇吧"從Nvidia 開源深度學習加速器說起"
Dataflow Processing Unit。資料流處理器。創立於2010 年的wave computing 公司將其開發的深度學習加速處理器稱為Dataflow Processing Unit(DPU),應用於資料中心。 Wave 的DPU 內整合1024 個cluster。每個Cluster 對應一個獨立的全定製版圖,每個Cluster 內包含8 個算術單元和16 個PE。其中,PE 以非同步邏輯設計實現,沒有時脈訊號,由資料流驅動,這就是其稱為Dataflow Processor 的緣由。使用TSMC 16nm FinFET 工藝,DPU die 面積大概400mm^2,內部單口sram 至少24MB,功耗約200W,等效頻率可達10GHz,性能可達181TOPS。前面寫過一篇他家DPU 的分析,見傳輸閘AI 晶片|淺析Yann LeCun 提到的兩款Dataflow Chip。
Digital Signal Processor。數位訊號處理器。晶片產業的人對DSP 都不陌生,設計DSP 的公司也很多,TI,Qualcomm,CEVA,Tensilica,ADI,Freescale 等等,都是大公司,這裡不多做介紹。相較於CPU,DSP 透過增加指令並行度來提高數位運算的效能,如SIMD、VLIW、SuperScalar 等技術。面對AI 領域新的運算方式(例如CNN、DNN 等)的挑戰,DSP 公司也在馬不停蹄地改造自己的DSP,推出支援神經網路運算的晶片系列。在後面VPU 的部分,會介紹一下針對Vision 應用的DSP。和CPU 一樣,DSP 的技術很長一段時間以來都掌握在外國公司手裡,國內也不乏兢兢業業在這方向努力的科研院所,如清華大學微電子所的Lily DSP(VLIW 架構,有獨立的編譯器),以及國防科大的YHFT-QDSP 和矩陣2000。但是,也有臭名昭著的「漢芯」。
國際上,Wave Computing最早提出DPU。在國內,DPU最早是由深鑑科技提出,是基於Xilinx可重構特性的FPGA晶片,設計專用深度學習處理單元,且可抽像出客製化的指令集與編譯器,從而實現快速的開發與產品迭代。
你以為到這裡就完了嗎?
不,據說每過18天,積體電路領域就會多出一個XPU,直到26個字母用完。
這被戲稱為AI時代的XPU版摩爾定律。
據不完全統計,已經被用掉的有:
輔助動力裝置
Accelerated Processing Unit, 加速處理器,AMD公司推出加速影像處理晶片產品。
BPU
Brain Processing Unit ,大腦處理器,由地平線公司主導的嵌入式處理器架構。
中央處理器
Central Processing Unit 中央處理器, 目前PC core的主流產品。
資料處理單元
Deep learning Processing Unit, 深度學習處理器,最早由國內深鑑科技提出;另說有Dataflow Processing Unit 資料流處理器, Wave Computing 公司提出的AI架構;Data storage Processing Unit,深圳大普微的智慧固態硬碟處理器。
CPU、GPU、DPU、TPU、NPU...傻傻分不清楚?實力掃盲-安排!_控制 https://bit.ly/4cadYrH
應用無所不在 AI晶片戰況升溫 - 電子工程專輯 https://bit.ly/45al9xC
AI相關應用推助晶片市場的爆炸性成長,是導致AI晶片戰火越燒越旺的主因。綜合各家市調單位的觀察,未來AI晶片將進入許多領域,其中行動/消費性、資料中心、汽車,以及物聯網(IoT),將是最主要的四大領域。
在人工智慧(AI)已成為顯學的同時,其開始從雲端擴展到終端裝置,並逐漸延伸至各類應用領域,包括人們的食衣住行、農林漁牧、製造業…等等。雖然要實現「AI Everywhere」的願景也許還有段路要走,卻似乎已引爆了AI晶片,與所謂的AI「專用」晶片的新戰局。
AI晶片市場蓬勃發展
且先不論何謂AI專用晶片和AI晶片的差異,根據市場研究機構MarketsandMarkets的最新展望報告,急切的消費者所促成的龐大、複雜資料集,與不斷增加的商業應用程式,還有廣泛被採用的深度學習(DL)與神經網路,推動AI晶片市場以約40%的年成長率持續擴張。
德勤(Deloitte Insights)則以應用類別來分析。該市調機構認為,2020年,全球邊緣AI晶片出貨量將超過7.5億顆,銷售金額將達到26億美元,而且邊緣AI晶片的成長速度將遠高於整體晶片市場,預估到2024年,邊緣AI晶片出貨量可能超過15億顆,意味著其年複合成長率(CAGR)至少達20%。
AI運算技術能佈署在不同位置。
AI晶片?AI專用晶片?
隨著雲端到邊緣再到終端,從傳統農林漁牧、製造到高科技產業,AI技術逐漸發揮其效益,並驅動更多新興應用的同時,其對更高運算力的需求,也為半導體晶片產業創造新機會與更大產值。
所謂的AI晶片,若以技術架構來看,包括通用性繪圖處理器(GPU)、全訂製化特定應用積體電路(ASIC)、半訂製化FPGA,以及神經形態晶片或類腦晶片,都可稱為AI晶片。若以功能來看,根據機器學習(ML)演算法的步驟,可分為訓練(training)和推論(inference),在訓練的環節中,因為涉及需處理海量訓練資料及複雜的神經網路架構,因此需要GPU集群或是Google研發的張量處理單元(TPU) 2.0/3.0等具備強大運算力的IC;推論環節是讓訓練好的模型,利用新的資料數據去推斷、預測出各種結論,運算量相對較少,因此中央處理器(CPU)、GPU、FPGA和ASIC都能發揮作用。AI晶片如果以應用來分類,可分為雲端(伺服器)與終端(如行動裝置、無人自駕車、智慧家電…等)應用,前者需要高運算效能的IC;後者則須在一定的運算力之外,具備低功耗、低成本及低延遲等特性,因此除了前述的IC,一些行動終端中的「小」AI應用,甚至使用微控制器(MCU)即可。
AI專用晶片又是什麼?研究機構認為ASIC就是實現特定要求而訂製的AI專用晶片。耐能智慧(Kneron)創辦人暨董事長劉峻誠解釋,採用截然不同於CPU、GPU…等既有處理器的架構,專門負責處理AI/機器學習功能運算,並具備低功耗優勢的神經處理單元(NPU)即為AI專用晶片。另外,Google研發的TPU,也能歸入AI專用晶片的領域。
實際上,NPU、TPU或是視覺處理單元(Vision Processing Unit,VPU)、大腦處理器(Brain Processing Unit,BPU)…等因AI運算技術發展而出現,令人眼花繚亂的各種晶片,本質上都屬於ASIC。
AI晶片綜合效能大比拚
目前主流的AI晶片主要有GPU、FPGA和ASIC。其中,GPU由大量核心組成大規模平行運算架構,且憑藉豐富的軟體生態系統和開發工具,再加上易於部署的特點,由Nvidia主導的GPU在早期的AI運算中獲得大量採用,直到現在仍是最為普及的AI處理器。
Imagination視覺及AI、 PowerVR部門業務開發資深總監Andrew Grant表示,GPU特別適合AI訓練或者執行運算工作負載。若是嵌入式GPU在運作神經網路任務方面比嵌入式CPU快10~20倍,並且效率更高,那麼神經網路加速器(NNA)的執行速度可比性能提高了幾個數量級的CPU快100~200倍。
FPGA是一種半客製化的電路硬體,其功能可以透過程式設計來修改,平行運算能力很強。Grant認為,FPGA的確相當靈活,可以更輕鬆地部署和更新,但缺乏AI專用晶片的高效能。
ASIC是針對特定應用需求而定制開發的晶片,通常具有更高的性能和更低的總體功耗。但是,ASIC不能適應快速變化的AI網路模型和新的資料格式,如果沒有夠大的出貨量可能難以抵消高昂的開發成本。在性能表現上,針對特定領域的ASIC晶片通常相當具備優勢,如果出貨量可觀,其單顆成本可做到遠低於FPGA和GPU。
像TPU、NNA或深度學習加速器(DLA)之類的ASIC,旨在以超高效率運作AI任務為首要設計目標,要比其他替代方案快幾個數量級,並具有諸如多執行個體(multi-instance)的高效能比(TOPS/watt)功能。隨著AI應用真正的實現,專用的ASIC晶片量產成本低、性能高、功耗低的優勢將逐漸凸顯。
簡單比較FPGA、GPU和ASIC架構的性能、功耗和靈活性。
(製表:EE Times China)
劉峻誠表示,屬於ASIC的AI專用晶片NPU,除了承繼ASIC的特性,且具備足夠的運算力外,相較於CPU或GPU,NPU最大的優勢為功耗低、晶片尺寸小、無須散熱裝置,以及可打造的AI應用相當多元。根據美國NSF的測試報告,NPU與CPU、GPU執行相同的AI功能時,NPU單位功耗可貢獻的運算力可高於CPU及CPU的千倍。因此,NPU這類AI專用晶片在AI市場,不但有其存在的價值與必要性,未來,更可望佔有一席之地。
針對以提升現有通用型處理器來滿足AI的各項需求,專用晶片是否有真其必要性的討論,Arm應用工程總監徐達勇表示,若從處理器的角度來看AI技術,目前市場上有使用CPU、GPU、DSP、專門為AI設計的處理器與加速器等不同架構。但這些不同架構的處理器該如何選擇、運用,或是進一步整合、做成專用晶片,這其中的判斷標準應從成本,以及所屬特殊領域的市場大小來看,比較不會從技術成分來考量。
技術成分指的是,思考哪些應用應該運作在CPU、GPU或者其他處理器架構上。這些可能是針對功耗、運算力,甚至是安全性等方面的需求來判斷。徐達勇認為,市場一定會需要AI專用晶片,因為未來世界AI將無所不在,對功耗、運算力的需求各異,應該會有針對不同領域需要的AI專用晶片誕生。
AI晶片戰火已點燃
無論是傳統通用型AI晶片或AI專用晶片,皆因AI技術衍生的龐大商機而「熱血沸騰」。不僅如此,近期新冠肺炎疫情的發生與全球性的蔓延,更是加深各國政府、企業、民眾對於AI的需求。因此,各類晶片皆持續精進其運算效能,以及其他特性,進一步搶佔市場商機。
CPU與GPU固守雲端/高階運算
在雲端訓練和推理運算領域中,AI晶片發揮巨大的加速作用,然而,它也面臨著一些挑戰。作為AI運算力的主要應用,發展雲端架構時,需要解決運算力性價比與通用性問題。
Grant指出,在雲端培訓中,瓶頸在於必須非常擅長運作特定類型的工作負載。解決之道通常是透過開發可能會改變遊戲規則的新框架所驅動,這樣的好處之一是可以在早期階段開放這些框架,這樣就可以在考慮一般應用任務的情況下規劃對未來硬體設計的任何特定要求。在雲端推論方面,瓶頸不在設計本身,而是批量生產的延遲,所幸由於邊緣AI可以在專為AI設計的晶片上更成功地運作,因此這個問題已被克服。
眾所周知,在雲端領域,GPU一直位居AI晶片霸主地位。劉峻誠表示,越通用的AI應用,如雲端、資料中心伺服器…等,對CPU與GPU的需求,以及其可發揮的空間就越大。此外,為滿足雲端須不斷提升運算力的需求,Google針對其雲端架構研發的TPU,為AI專用晶片跨足雲端領域的先鋒。
值得注意的是,有業者認為,目前市面上的CPU、GPU效能已無法滿足AI運算需求,徐達勇表示,這可能是事實,但主要是看應用場景的需求,以及能否滿足運算、效能、功耗與彈性等多個象限的綜合要求。從現實面來說,如果目前市面上的CPU處理機器學習的效能真的不夠,即得加裝加速器。劉峻誠則提醒,在雲端AI領域,若因CPU效能不足而增添一顆NPU,或其他AI加速器,不僅成本會增加,且在單位面積相同時,AI處理部分的效能相對會被減弱,相關業者需審慎考量。
ASIC/NPU在終端AI優勢盡顯
雲端需要通用型GPU及CPU等AI晶片,而在端的部分,則是ASIC的天下。Grant認為,ASIC的架構旨在運作低功耗要求的AI應用,使其非常適合嵌入式裝置,如自動駕駛車/無人駕駛計程車(Robot Taxi)、倉儲機器人或邊緣裝置。
另一方面,AI晶片在邊緣運算和終端開發中面臨的挑戰是,它們能否部署在其中的多種環境。Grant表示,由於生產晶片是一項昂貴的業務,因此晶片供應商經常設法最小化成本和晶片的面積,且業者展望未來時,也在系統單晶片(SoC)中建構靈活性和功能,使SoC能適應未來的發展,並進一步能夠走到大規模銷售的階段。
劉峻誠再次提及NPU的最強優勢在於低功耗,以及具備足夠且專注的運算力,因此NPU在物聯網這類需要以電池供電,對低功耗要求相當高的AI終端裝置上,如穿戴式裝置、智慧門鎖…等,NPU都是相當合適的機器學習及AI專用晶片。
值得注意的是,耐能智慧的NPU已有邊緣伺服器的合作計畫正在進行。劉峻誠強調,NPU等AI專用晶片並非沒有能力進軍雲端AI市場,而是研發NPU等專用晶片的有志之士大多為新創公司,資金較為拮据,若是有「口袋夠深」的業者揭竿而起,相信未來將出現NPU晶片巨頭,並進一步擠壓GPU目前的AI市場空間。不過,劉峻誠亦坦言,由於NPU是半導體、AI業界中的「新成員」,因此目前最大的挑戰在於如何說服客戶改變想法,接受並採用NPU這種全新架構的AI專用晶片。
GPU將成弱勢?促Nvidia併Arm
為何以運算力高強著稱的GPU未來的空間會受到擠壓?這是由於,從靈活性與效能來分析CPU、GPU與NPU,可以發現靈活性最佳的是CPU,而效能最好的是NPU,GPU則是介於兩者之間,似乎有些不上不下。因此,有業者認為,GPU若不思索新的突破方式,很可能遭受CPU,以及NPU夾擊。
這可能是促使Nvidia日前宣佈以400億美元的天價收購Arm的隱藏因素之一。Nvidia針對此購併事件發出的聲明稿中,Nvidia創辦人暨執行長黃仁勳表示,兩家公司的結合「可以將運算能力從雲端運算、智慧型手機、個人電腦、自動駕駛車和機器人推向邊緣物聯網,並把AI運算擴大到全球的每一個角落。」
資策會產業情報研究所(MIC)資深產業顧問兼主任楊中傑則從邊緣AI運算的發展趨勢分析,他指出,邊緣運算自2015年獲得廣泛應用後,已歷經並完備終端設備「本地預處理」、雲端與邊緣端形成「彈性運算架構」兩個階段。2021年之後可望加速實現「本地智慧化」的邊緣運算第三階段,也就是可在無雲的情境下,實現「現場去中心化」智慧預測網路,而「現場去中心化」智慧預測網路即是在微型物聯網裝置中加入AI。因此,Nvidia收購Arm的顯著動機,即是為了抓住GPU無法進入的物聯網微型裝置中的AI商機。
然而,Nvidia完成收購Arm的程序後,也許能順利打造從雲端到終端End-to-End完整的AI運算架構,但另一方面,也有市場相關人士提醒,此舉可能會使得Arm流失既有與未來的潛在新客戶。
依應用所需「混搭」
資策會MIC表示,為滿足AI高效能運算(HPC)的需求,各類IC不但須提升運算力,同時還要兼顧功耗的限制,才能在越發競爭的AI晶片市場中脫穎而出。目前各家大廠積極嘗試多元運算架構(如多核心或CPU+GPU+ASIC)的發展方向,以期透過多元運算最佳化工作分配,能在達成運算需求的同時,滿足功耗的限制。資策會MIC並指出,ASIC在特定應用的強大運算能力將為多元運算架構運用的重點,勢必吸引許多公司及新創團隊的投入。
劉峻誠舉例說明,智慧型手機即為CPU+GPU+ASIC/NPU此種多元架構最佳的範例。即使NPU與GPU或CPU的設計架構有著根本上的極大差異,但是這些異質處理器之間彼此又能有效溝通,實現智慧型手機的AI相關應用之餘,還能讓手機的續航力足以符合消費者期待。
然而,這對相關業者而言將是新的挑戰。徐達勇指出,CPU+GPU+ASIC等異質設計挑戰在軟體,不在硬體。
Arm首席應用工程師沈綸銘解釋,應用裝置設計架構中,機器學習使用最頻繁的是數據科學家,以及做很多使用案例和演算法的公司,其位在最頂層;研發晶片的業者則是把CPU、GPU、NPU整合,處於最底層。而上層的人員開發演算法時,需要越虛擬越好,且無須擔心在某一層該指定由CPU或GPU去做,或者哪個硬體上的放了多少快取(Cache)、放了多少DRAM,以及各硬體之間的關係。
由於希望最上層的使用者能完整利用整體的效能並產生綜效,加上硬體IP是由Arm定義,了解如何在底層做最佳化,因此Arm在中間層提供了一些軟體函式庫(Software Library),以開放方式貢獻到整個生態系中,所有的開發者皆可使用,透過中介軟體(Middleware)可自動分配不同的作業負載(Workloads)在不同的運算單元上。沈綸銘認為,這樣做的好處是,也許使用的CPU效能不見得最棒,但可以加總使用在GPU、NPU叢集的運算力,而這才是異質運算軟體的關鍵。
別爭!各有揮灑空間
從上層應用案例/作業負載該選用何種晶片的角度來分析,沈綸銘表示,一般人認為AI似乎需要很大的運算力,但其實有很多運算規模較小的AI應用使用CPU或MCU就可以做到。例如只要進行10個物件辨識,在很多開放網路(Open Network)如Cifar-10、MNIST用Cortex-M就可以做得到,好處是不用改硬體,不需要用專用的晶片;但如果需要辨識100個物件,畫素要從Full HD提升到4K/8K,這就需要額外的運算力。
因此,AI應用主要仍是看其對應的需求來選擇該使用何種處理器晶片…
應用無所不在 AI晶片戰況升溫 - 電子工程專輯 https://bit.ly/45al9xC
AI晶片市場 飛速成長(2-2)《產業》AI晶片市場 飛速成長(2-2) https://bit.ly/4aNKPkX
時報資訊2022年10月16日【時報-台北電】2. AI引領強算力時代,協同運行啟動多場景應用
AI晶片大致可分為CPU、GPU、FPGA與ASIC(客製化晶片);其中,GPU是由大量運算單元組成的大規模並行運算架構,專為同時處理多重任務而設計,多應用於工作站、個人電腦、遊戲設備、智慧型手機等設備,處理圖形、圖像相關運算工作;再者,該晶片採用統一渲染架構,能在算法尚未定型的領域中使用,故通用性程度較高、商業化較成熟。
FPGA主要是能提供用戶根據自身的需求進行重複程式設計,解決可程式化元件電路數不足問題,且運行效率高於GPU、CPU,功耗也相對較低,但當處理的任務重複性不強、邏輯較為複雜時,該晶片效率就會低於使用馮紐曼架構的處理器。
ASIC是一種根據特定算法、架構的客製化晶片,其客製化程度比GPU、FPGA更高、專用性較強,故運算水準一般高於CPU、GPU、FPGA,但初始投入大,且算法一旦改變,運算能力將大幅下降,需重新設計客製,不過隨著資料量不斷增加和晶片技術的極限到來,對算力的訴求越難以被滿足。
尤其是部分特定領域的資料量日益龐大,演算法逐漸固定,對以ASIC架構為基礎設計而成的DPU、TPU與NPU之需求增加,特別是DPU,因DPU能部分取代CPU、GPU部分功能,解決數據量驟增而導致CPU與Memory間資料傳輸問題,改善並加速網路資料傳輸運算速度。目前廣泛用在大型資料中心,因大型資料中心的流量處理需占據整體運算近30%,加上資料中心在節點間交換效率和節點內I/O切換效率偏低,故透過DPU與CPU、GPU協同運行能有效解決鬆耦合問題。
因此隨著物聯網設備不斷擴增,例如工業機器人、AGV/AMR、智慧型手機、智慧音箱、智慧攝影機等,加上自動駕駛、影像辨識、語音語意辨識、運算等技術在各領深化運用、升級,將催化AI晶片與技術市場迅速成長。
以2022年整體市場來看,在智慧汽車、機器人與資料中心三大領域對AI晶片的需求將持續增加,進而不斷提升運算能力、技術架構以滿足此三大領域需求;其中,智慧汽車方面,自汽車電子電氣架構從分布式走向集中式,MPU、MCU需求逐年增加,加上現在電動車緊密貼合先進駕駛輔助系統(ADAS)技術應用,使車廠利用AI晶片解決複雜的運算條件、整車運行功耗與數據傳輸等問題,增強整車的穩定性、安全性。
此外,近年機器人的技術擴散相當快,應用場景已從工業環境延伸到飯店、餐廳、醫院、倉儲物流、國防與太空探索等,然為了讓機器人能運行影像處理、人臉辨識等功能都會選擇GPU、FPG。其中,FPGA使用率較高,因該晶片具有低功耗、高性能、可重配置能力與自我調整特徵,並能將機器人作業系統(Robot Operating System,ROS)整合到FPGA平台,進而讓機器人內部軟硬體可有效交互,發揮最佳運行效能。
再者,當前機器人正快速朝向3D實體、工作分解結構(Work Breakdown Structure,WBS)與時間等多維度處理能力發展。有鑒於此,現階段的GPU、FPGA架構將持續創新突破,甚至針對特殊需求進行設計,這勢必牽引製造、封測與設備,以及材料與軟體的全鏈同步升級。
綜上所述,智慧汽車、機器人和物聯網技術,與其構建的智慧交通、智慧工廠和智慧城市等新藍海,對AI晶片市場需求與發展可期,同時也帶動資料中心進一步成長,其在訓練、創建新運算模型與維持中心伺服器營運、電力控管皆使用到大量AI晶片,例如Tesla擴大其GPU驅動的AI Super,將A100 GPU配置數量增加到7,360個,提前為DoJo部署。百度自研二代崑崙晶片以增強量子運算效能,且於2022年8月推出超導量子電腦,以及全平台量子軟硬體整合解決方案,可透過PC端、手機端、雲端接入各種量子晶片。
在多方需求高漲下,AI晶片勢必迅速成長,預期2026年AI晶片市場規模有望達到930億美元,其中CPU與GPU仍占據AI晶片市場主要份額且穩健成長,而ASIC市場前景廣闊,其優勢與特性能協助在數據處理、消費性電子、電信系統、工業與其他產業的用戶開發系列產品,縮短產品、服務或系統的創新週期。
TrendForce研究顯示,CPU、GPU與ASIC晶片在2026年AI市場規模的比重將達33%、34%、26%,其中以ASIC晶片市場成長最快,原因有兩點,其一,消費性電子設備市場需求增加,且多數用中小型設備開發商偏向7nm的ASIC。其二,5G、低軌道衛星通訊、雲端與邊緣運算的工作負載與結構化需求不斷增加,因為電信系統是最大的終端使用市場。
《產業》AI晶片市場 飛速成長(2-2) https://bit.ly/4aNKPkX
熱門概念股》輝達概念股
2024/02/25 07:53
隨著AI商機爆發,輝達股價噴漲,帶旺相關供應鏈台廠股價走高。(路透)
什麼是輝達概念股?
全球第2大IC設計商輝達(NVIDIA),創立於1993年,是一家專攻晶片設計的無廠半導體公司,涵蓋業務涵蓋範圍廣泛,以獨立顯卡起家,活躍於遊戲產業;還擁有強大的資料中心業務-資料處理器(DPU)、中央處理器(CPU) 、圖形處理器(GPU)等;也持續布局車用市場,隨著人工智慧(AI)的爆紅,帶動輝達高階晶片業務迅速成長。
輝達2023會計年度第3季財報營收181.2億美元,優於市場原先預期,年增206%,季增34%,毛利率更推升至75%的新高,輝達將於21日美股盤後公布上季財報,預估營收將暴增1.7倍。
輝達股價在去年前3季漲勢顯著,雖然後續放緩,但全年股價仍上漲239%,年初迄今再漲50%,甚至在台股農曆春節期間衝破700美元整數關卡,表現相當亮眼,帶動台灣相關半導體與電子產業股價跟著走高。
相關個股
台積電(2330)收盤價697元 周漲幅2.05%
輝達仰賴台積電為其生產高階GPU晶片,輝達最新AI晶片H200預計第2季開始供貨,並採用台積電的4奈米製程,有望進一步提升台積電的產能利用率及獲利能力,台積電也因此成為市場關注的輝達概念股之一。
台積電2023年第4季財報,合併營收約6255.3億元,稅後純益約2387.1億元,每股盈餘為9.21元,優於市場預期。
日月光(3711)收盤價141.5元 周漲幅3.28%
全球封測龍頭日月光於AI領域布局多項先進封裝技術,在台積電CoWoS產能吃緊之際,獲得輝達高階GPU晶片的封裝測試訂單,推升日月光高階封裝產能利用率。
受惠測試業務維持高檔,加上EMS代工業務進入旺季,日月光去年第4季稅後純益93.92億元,季增7%,年減40%,每股稅後純益2.18元,為1年來新高,全年累計達7.39元,為歷史第3高。
京元電子(2449)收盤價94.8元 周漲幅5.33%
受惠於輝達、超微、英特爾等大客戶持續追單,半導體測試大廠京元電子AI業務比重持續攀升,法人看好其營收有望逐季揚升,此外,京元電去年大幅擴充AI晶片測試產能,加上CoWOS先進封裝產能開出所需的測試量,預期今年AI相關業績將持續攀高,營收佔比可望從去年的7%上升至10%,增幅高達5成。
京元電子1月合併營收28.07億元,較去年12月成長1.1%、年增9.5%。
廣達(2382)收盤價241元 周漲幅-3.02%
電子代工大廠廣達同樣也是輝達的重要合作夥伴之一,為其提供高效能的AI伺服器和GPU基板,並獲得輝達超級電腦系統DGX GH200的訂單。
另外,隨著美國雲端供應服務商(CSP)相繼擴大資本支出,法人認為,AI伺服器仍是廣達今年成長與營運主力動能,預期廣達雲端事業營收佔比將衝破4成,有望超越筆電,成為廣達最大產品線。
緯創(3231)收盤價116元 周漲幅-7.94%
緯創是輝達伺服器的主力供應商,天風國際證券分析師郭明錤曾指出,緯創為輝達CoWoS AI晶片基板的最大供應商,佔比高達85%,同時還是超微(AMD)與英特爾(Intel)AI晶片模組與基板的獨家供應商,顯示緯創均處於優勢供應地位。另外,中國將於Q2量產給中國的「H20」晶片,緯創也是其基板的主要供應商。
受惠AI伺服器相關產品出貨暢旺,緯創獲利能力持續提升,去年毛利率衝上7.94%,創下歷史新高,自結EPS 4.08元,也是2012年以來新高,惟受淡季效應影響,1月營收月減9.9%,不過法人仍看好其整體營收有望年增12%、每股獲利(EPS)年增48%至6.03元,預期2025年將維持增長。
技嘉(2376)收盤價342.5元 周漲幅-10.1%
隨著AI商機持續發酵,同步帶動伺服器供應鏈展望,主機板、顯卡大廠技嘉也搭上輝達旋風,去年營收達1368.95億元,年增27.69%,創下歷年新高。
技嘉預估,今年首季旗下主板業績可望小幅季增,伺服器業務則將年、季雙增,目前相關營收在技嘉佔比已超過3成,公司預期,2024全年伺服器出貨與營收將優於去年,且看好AI需求利多有望延續至2026年
熱門概念股》輝達概念股 - 自由財經 https://bit.ly/4aMRqw4
輝達財報,行家只看這項數據!9檔法人看好的輝達AI概念股一次看!|豐雲學堂 2024 年 06 月
輝達宣布納入AI伺服器的合作伙伴之一,和碩(4938)昨日站上百元大關後,今(20)日早盤持續強攻,一度攻高至漲停前一檔109.5元創下新高,真的如和碩董事長童子賢說,「終於輪到我們搭順風車了」。和碩積極布局AI伺服器,並成為NVIDIA先進GPU計算技術的全球合作夥伴之一,尤其最新發表的NVIDIA GB200 Grace Blackwell超級晶片。漏網的輝達概念股 這檔股價補漲衝新高 - 證券 - 工商時報 https://bit.ly/4ectBR1
台積電美國工廠揭開面紗 「逆全球化」之下的贏家是誰 - BBC News 中文
Tensor 核心:高效能運算和人工智慧的多樣性 | NVIDIA
何為張量(Tensor)?三分鐘圖解類神經網路基本資料結構 - 學習漂流瓶 Drift Bottle - Medium
博客來-Deep learning 深度學習必讀:Keras 大神帶你用 Python 實作
什麼是DPU? - NVIDIA 台灣官方部落格 https://bit.ly/3XfKi8p
DPU 可以用作獨立的嵌入式處理器,但通常被整合到 SmartNIC (一種作為下一代伺服器中關鍵組件的網卡)中。
例如某些供應商所使用的專用處理器無法用到廣泛的 Arm CPU 生態系統所提供的豐富的開發和應用環境。
還有些其他聲稱擁有 DPU 的廠商錯誤地將注意力只集中在使用嵌入式 CPU 來執行數據路徑處理。
DPU:專注於資料處理
如果想通過蠻力在性能上擊敗傳統的 x86 CPU ,結果註定會失敗,這樣做既沒有競爭力,也無法擴展。如果說一個 x86 CPU 尚且無法以每秒 100 Gbit 的速度處理數據包,如何能期望一個嵌入式 CPU 做到?
換個思路,如果網卡足夠強大和靈活,可以處理所有網路中的數據,而嵌入式 CPU 則被用來做控制路徑的初始化和異常情況處理,一切就都解決了。
網路數據路徑加速引擎至少需要具備下述 10 項功能:
像 OVS (開放式虛擬交換機)一樣對數據包進行解析、配對和處理
對 Zero Touch RoCE 的 RDMA 數據傳輸加速
透過 GPU-Direct 加速器繞過 CPU ,將來自儲存和其他 GPU 的數據通過網路直接傳給 GPU
TCP 通信加速,包括 RSS 、 LRO 、 checksum 等操作
網路虛擬化的 VXLAN 和 Geneve Overlay 作業負載和 VTEP 作業負載
針對多媒體流、內容傳遞網路)和新的 4K / 8K IP 影片(如根據 ST 2110 規範的 RiverMax )的 「 Packet Pacing 」 流量整形加速
電信 Cloud RAN 的精準時鐘加速器,例如 5T for 5G (精準時鐘調度 5 G 無線報文傳輸技術)功能
在線 IPSEC 和 TLS 加密加速,但不影響其它正在運行的加速操作
支援 SR-IOV 、 VirtIO 和 PV(Para-Virtualization)等虛擬化
安全隔離:如信任根、安全啟動、安全韌體升級以及基於身份驗證的容器和應用的生命週期管理等
以上就是能對「什麼是 DPU 」這個問題回答 Yes 的至關重要的 10 個加速和硬體功能。
那麼究竟什麼是 DPU ?這就是一個 DPU :
What's a DPU? This is a DPU, also known as a Data Processing Unit.
許多所謂的 DPU 僅專注於提供上述功能中的一項或兩項。
最糟糕的嘗試是數據路徑作業負載到專有處理器。
雖然能做出原型,但是從資料中心的規模、範圍和廣度上來言,這一做法並不不明智
什麼是DPU? - NVIDIA 台灣官方部落格 https://bit.ly/3XfKi8p
輝達概念股2024/02/25 07:53熱門概念股》輝達概念股 - 自由財經 https://bit.ly/4aMRqw4
隨著AI商機爆發,輝達股價噴漲,帶旺相關供應鏈台廠股價走高。(路透)
什麼是輝達概念股?
全球第2大IC設計商輝達(NVIDIA),創立於1993年,是一家專攻晶片設計的無廠半導體公司,涵蓋業務涵蓋範圍廣泛,以獨立顯卡起家,活躍於遊戲產業;還擁有強大的資料中心業務-資料處理器(DPU)、中央處理器(CPU) 、圖形處理器(GPU)等;也持續布局車用市場,隨著人工智慧(AI)的爆紅,帶動輝達高階晶片業務迅速成長。
輝達2023會計年度第3季財報營收181.2億美元,優於市場原先預期,年增206%,季增34%,毛利率更推升至75%的新高,輝達將於21日美股盤後公布上季財報,預估營收將暴增1.7倍。
輝達股價在去年前3季漲勢顯著,雖然後續放緩,但全年股價仍上漲239%,年初迄今再漲50%,甚至在台股農曆春節期間衝破700美元整數關卡,表現相當亮眼,帶動台灣相關半導體與電子產業股價跟著走高。
相關個股
台積電(2330)收盤價697元 周漲幅2.05%
輝達仰賴台積電為其生產高階GPU晶片,輝達最新AI晶片H200預計第2季開始供貨,並採用台積電的4奈米製程,有望進一步提升台積電的產能利用率及獲利能力,台積電也因此成為市場關注的輝達概念股之一。
台積電2023年第4季財報,合併營收約6255.3億元,稅後純益約2387.1億元,每股盈餘為9.21元,優於市場預期。
日月光(3711)收盤價141.5元 周漲幅3.28%
全球封測龍頭日月光於AI領域布局多項先進封裝技術,在台積電CoWoS產能吃緊之際,獲得輝達高階GPU晶片的封裝測試訂單,推升日月光高階封裝產能利用率。
受惠測試業務維持高檔,加上EMS代工業務進入旺季,日月光去年第4季稅後純益93.92億元,季增7%,年減40%,每股稅後純益2.18元,為1年來新高,全年累計達7.39元,為歷史第3高。
京元電子(2449)收盤價94.8元 周漲幅5.33%
受惠於輝達、超微、英特爾等大客戶持續追單,半導體測試大廠京元電子AI業務比重持續攀升,法人看好其營收有望逐季揚升,此外,京元電去年大幅擴充AI晶片測試產能,加上CoWOS先進封裝產能開出所需的測試量,預期今年AI相關業績將持續攀高,營收佔比可望從去年的7%上升至10%,增幅高達5成。
京元電子1月合併營收28.07億元,較去年12月成長1.1%、年增9.5%。
廣達(2382)收盤價241元 周漲幅-3.02%
電子代工大廠廣達同樣也是輝達的重要合作夥伴之一,為其提供高效能的AI伺服器和GPU基板,並獲得輝達超級電腦系統DGX GH200的訂單。
另外,隨著美國雲端供應服務商(CSP)相繼擴大資本支出,法人認為,AI伺服器仍是廣達今年成長與營運主力動能,預期廣達雲端事業營收佔比將衝破4成,有望超越筆電,成為廣達最大產品線。
緯創(3231)收盤價116元 周漲幅-7.94%
緯創是輝達伺服器的主力供應商,天風國際證券分析師郭明錤曾指出,緯創為輝達CoWoS AI晶片基板的最大供應商,佔比高達85%,同時還是超微(AMD)與英特爾(Intel)AI晶片模組與基板的獨家供應商,顯示緯創均處於優勢供應地位。另外,中國將於Q2量產給中國的「H20」晶片,緯創也是其基板的主要供應商。
受惠AI伺服器相關產品出貨暢旺,緯創獲利能力持續提升,去年毛利率衝上7.94%,創下歷史新高,自結EPS 4.08元,也是2012年以來新高,惟受淡季效應影響,1月營收月減9.9%,不過法人仍看好其整體營收有望年增12%、每股獲利(EPS)年增48%至6.03元,預期2025年將維持增長。
技嘉(2376)收盤價342.5元 周漲幅-10.1%
隨著AI商機持續發酵,同步帶動伺服器供應鏈展望,主機板、顯卡大廠技嘉也搭上輝達旋風,去年營收達1368.95億元,年增27.69%,創下歷年新高。
技嘉預估,今年首季旗下主板業績可望小幅季增,伺服器業務則將年、季雙增,目前相關營收在技嘉佔比已超過3成,公司預期,2024全年伺服器出貨與營收將優於去年,且看好AI需求利多有望延續至2026年。
熱門概念股》輝達概念股 - 自由財經 https://bit.ly/4aMRqw4
台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? 台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? - BTCC
2024/06/04作者: C, Judy台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? - BTCC https://bit.ly/3KwEoIi
自去年底聊天機器人 ChatGPT 上線後,全球掀起人工智慧 (AI) 狂潮,微軟、Google 等科技大廠紛紛推出自己的 AI 聊天機器人。這也導致 AI 伺服器需求大增,推動輝達(股票代碼:NVDA)股價暴漲。 台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? - BTCC
自 2023 年以來,輝達股價漲幅超 500%,而在其帶動下,台廠概念股包括台積電、弘塑、日月光投控、緯創及奇鋐等均受惠。
那麼,輝達概念股到底有哪些?現在還能買嗎?未來前景如何?下文我們將詳細介紹台廠輝達概念股,並總結專家對 NVDIA 概念股未來的看法。
BTCC 目前提供Nvidia (NVDA) 與 USDT 的代幣化股票對 (NVDAUSDT),槓桿最高可達 50 倍,如果您對該股票感興趣,可以註冊 BTCC 進行購買。
輝達股價最新新聞和動態 台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? - BTCC
輝達(Nvidia)執行長黃仁勳於 6 月 2 日在台大育館發表演說,在會議上,黃仁勳點名了 43 家台廠輝達供應鏈,使得這些公司股票都開紅,讓不少鄉民直說「飆股名單」。
那麼,這些概念股是否值得投資?台灣有哪些輝達概念股呢?
NVIDIA輝達概念股是什麼?
在開始介紹什麼是輝達概念股之前,我們需要對兩個概念有大致的了解,即輝達是做什麼的,以及概念股是什麼意思。
1、輝達NVIDIA公司介紹
輝達(Nvidia)是一家以設計和銷售圖形處理器為主的無廠半導體公司,也是當前全球最大的 GPU公司。自從 1999 年推出全球第一個獨立顯卡後,該公司就開啟了 GPU 的新紀元。
NVIDIA 於 1993 年 1 月由三位美國計算機科學家黃仁勳、Curtis Priem 和 Christopher Malachowsky 創立。該公司因創造用於多種消費電子產品的高質量集成電路而聞名。Shield Portable、Shield Tablet、Shield Android TV 和 GeForce Now 只是幫助其在遊戲行業中廣為人知的部分產品和服務。
近半年以來,在 AI 熱門概念和基本面的改善下,輝達股價猶如坐上直升飛機,從去年9月底的115美元/股,一路飙漲至今的 463 美元,其總市值排名也是水漲船高,從20名以外上升至今的第五名。
輝達(NVDA)將於 5 月 22 日美股盤後公布上季財報並釋出營運展望,外資摩根士丹利(大摩)認為,雖然市場對輝達財報預期充滿熱情,但股價似已領先反映。不過,在半導體市場中,沒有比 AI 更能吸引半導體投資者,因此,他對輝達維持「優於大盤」評等,並認為投資者應該維持 AI 部位。
此外,對於 AI 股價未來,大摩仍維持看多,並表示,目前離泡沫破滅還早。不過,股價不可能一路向上,漲高拉回是正常現象,投資人可趁拉回時建立部位。
而作為與輝達高度相關的輝達概念股,大摩指出有 14 家,包括有我們常見的台積電、緯創、鴻海、廣達等。
2、概念股是什麼意思?
概念股簡單來說就是「一群有關聯」的股票。它的分類比較主觀,有時候會依照相同話題或是某個產品的供應鏈個股集合在一起,但有時概念股會被當作一種選股和炒作題材,成為市場追逐的熱點。
例如,當 ChatGPT 帶起 AI 熱潮時,只要和 ChatGPT 或 AI 有關的產品,都成了台股的當紅炸子雞,許多新聞或投資人就會將這些相關的個股都稱為「 AI 概念股」。
3、輝達概念股
結合上文,我們可以知道,輝達概念股就是與 NVIDIA 輝達產品設計和服務有關聯的股票或行業。這些股票的股價和業務表現通常會與半導體和GPU的發展密切相關,包括 AMD、GPU、半導體、3C 等。
BTCC 提供輝達與 USDT 的代幣化股票對 (NVDAUSDT),槓桿最高可達 50 倍,您可以透過 BTCC 進行股票做多做空操作。
台灣輝達概念股有哪些?
Nvidia 股價飆漲成為市場關注焦點後,相關概念股也備受關注。而台股從 IP 服務、晶圓代工、IC 封測、CCL、PCB、散熱、伺服器機殼、伺服器組裝、連接器、COWOS 設備廠等,通通都能沾上邊。
台灣 43 家輝達概念股
1、台積電(2330)
台積電全稱為台灣積體電路製造股份有限公司,股票代碼為2330,是台灣一家從事晶圓代工的公司,為全球規模最大的半導體製造廠。台積電被譽為台灣的「護國神山」,世界大廠如蘋果(AAPL)、超微(NVDA)、英特爾(INTL)等都是台積電的客戶。
目前,在半導體業中,台積電市值仍位居全球第 1 大。
關於台積電股票的詳細介紹請看:台積電TSM股價分析&預測丨台積電是什麼?TSM和2330哪個比較好?如何投資?
輝達概念股值得投資嗎?未來如何?
輝達(Nvidia)今年的表現一直沒有讓投資者失望,其股價今年已上漲 229%。一些投資人可能想問:現在買進輝達還來得及嗎?
這支首屈一指的人工智慧(AI)概念股一連兩季大幅超越華爾街預期,顯示AI熱潮有貨真價實的利多支撐,可望再掀一波AI概念股漲勢。但投資輝達股票至少三年的GP Bullhound全球科技基金的主管表示,輝達漲幅已大,此刻進場買進的風險高。但該基金合夥人黑多恩也表示,目前環繞著AI的市場表現都會「非常、非常的強」,但除了輝達外,還有更好的選擇。
因此,從這個方面來說,輝達相關概念股是一個不錯的選擇,因為它同樣前景好,且股價較低,交易方式對台灣投資者來說也比較方便。
但值得注意的是,輝達概念股只能代表這些股票與 NVIDIA 公司有關,其股價受到輝達業務發展的影響,但這種影響不是絕對的。也就是說,當輝達業務需求增加後,並不代表輝達概念股股價一定會上漲,僅表示它們上漲的機會較大。
因此,在考慮投資 NVIDIA 輝達概念股前,除了關注輝達及相關產業的經濟狀況外,您還需要關注概念股本身的公司實力和營運表現。
輝達概念股 ETF
如果您不想直接購買輝達概念股票,想要以較低的風險入場,可以選擇輝達股票概念股相關的 ETF。
目前表現較好的輝達概念股 ETF 有統一FANG+(00757)、元大全球AI(00762)、台新全球AI(00851)、國泰費城半導體(00830)和國泰北美科技(00770)。
更多輝達 ETF 詳細請看:
輝達概念ETF盤點:台灣含「輝」量最高的ETF是?投資哪檔好?
值得注意的是,以上 ETF 均追蹤的是全球的 AI 公司,如果您想要投資一個追蹤台灣輝達概念股的 ETF,可考慮國泰台灣領袖50(00922)和元大台灣50(0050)
投資 NVIDIA 代幣股票對
除了輝達概念股外,您還可以選擇投資輝達代幣股票對。
為了滿足用戶投資需求,BTCC 獨創了股票(Apple、Meta、Microsoft、TSM等)、原物料、貴金屬(黃金、白銀)合約,讓你可以在一個平台買到多個產品,實現資產的合理配置,也能免去需要另外開戶等繁瑣步驟。
代幣化股票/股權通證對於很多人來說是一個比較陌生的概念,相信有些人會好奇:「為何可以利用加密貨幣購買股票?這樣的形式是否類似於差價合約 ( CFD )?」。
在一般的印象中,股票是要透過合格的交易所或券商平台才能買賣,主要由法幣(美金、台幣)進行交易,透過加密貨幣來投資股票,難免會讓不少人產生疑慮,擔心自己是否只是在跟 BTCC 平台對賭,而非買到真實的股票。但事實上,BTCC 的「股權通證」運作概念,和美股中的 ADR 非常相似。
我們都知道,ADR 是藉由將股票放在託管銀行,轉換成存託憑證讓投資人進行買賣;而 BTCC 就是將股票存放在託管銀行,並將其轉換成轉換成代幣,成為「代幣化股票」來讓投資人進行交易(這裡的「代幣」是一個詞彙,主要核心是透過銀行走信託機制那一套,不必太執著是什麼代幣)。也就是說,每一個 BTCC 上的「代幣化股票」,都可以對應真實存在的股票。
詳細介紹請看:用加密貨幣買美股、股指、商品期貨:BTCC 股權通證及代幣化股票
以下為在 BTCC 購買 NVDA 股票的操作指南: 台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? - BTCC
step 1:來到 BTCC 官網首頁,登錄你的 BTCC 帳戶。如果你沒有帳戶,需要先點擊註冊,完成後再進行充幣操作。
台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? - BTCC https://bit.ly/3KwEoIi
台灣輝達概念股有哪些?專家看好哪一檔?現在還能買嗎? - BTCC
NVIDIA狂漲,輝達概念股、AI ETF有哪些?給你15檔在台灣買得到的輝達概念股!-財富線上-ETF-商周財富網
NVIDIA狂漲,輝達概念股、AI ETF有哪些?給你15檔在台灣買得到的輝達概念股!-財富線上-ETF-商周財富網
黃仁勳 43 檔概念股一次看!高達 41 檔收紅、14 檔飆漲停黃仁勳 43 檔概念股一次看!高達 41 檔收紅、14 檔飆漲停 | TechNews 科技新報 https://bit.ly/3VuWvoq
作者 姚 惠茹 | 發布日期 2024 年 06 月 03 日 14:58 | 分類 AI 人工智慧 , GPU , 伺服器line share分享follow us in feedlyline share
黃仁勳 43 檔概念股一次看!高達 41 檔收紅、14 檔飆漲停 黃仁勳 43 檔概念股一次看!高達 41 檔收紅、14 檔飆漲停 | TechNews 科技新報
輝達(NVIDIA)創辦人黃仁勳 2 日在台大發表主題演講,分享人工智慧(AI)時代如何帶動全球新產業革命的發展,並點名 43 檔輝達供應鏈好朋友,帶動台股今日盤中一度飆至 21612.54 點,大漲 430 點,終場收在 21,536.76 點,黃仁勳 43 檔概念股中,更是有 14 檔直接收漲停。
黃仁勳演講一開始就談到與台灣合作夥伴的重要性,輝達與台灣合作夥伴透過抓住這難得的機會,藉由相關基礎建設的建構來創造世界,更在未來將影響到每個產業,尤其 AI 從加速運算、電腦繪圖科學研究到人工智慧的高峰,每一個晶片、每一台電腦都顯示輝達與台灣合作夥伴的緊密關係。
黃仁勳指出,下次工業革命已經展開,企業與國家正在與輝達合作,耗資上兆美元的傳統資料中心改為採用加速運算技術,並建立新型資料中心,從伺服器、網路和基礎設施製造商,再到軟體開發商,整個產業上下都在為迎接 Blackwell 架構做好準備,以加速各個領域由 AI 驅動的創新。
黃仁勳背後大螢幕完整呈現輝達供應鏈夥伴,有 AAEON(研揚)、Acer(宏碁)、ADLINK(凌華)、ADVANTECH(研華)、ASE (日月光投控)、ASRock (華擎)、ASUS (華碩)、AVerMedia(圓剛)、Axiomyek(艾訊)、Chenbro(勤誠)、COMPAL(仁寶)、Coretronic(中光電)、DELTA(台達電)、EDOM(益登)、EverFocus(慧友)、Foxconn(鴻海)、GIANT(巨大)、GIGABYTE(技嘉)、GMI(弘憶股)、Inventec(英業達)、InWin(迎廣)、KENMEC(廣運)、KYEC(京元電)、Lanner(立端)、Leadtek(麗臺)、LITEON(光寶科)、MediaTek(聯發科)、MiTAC(神達)、MSI(微星)、Neousys(宸曜)、NEXCOM(新漢)、onyx(醫揚)、PEGATRON(和碩)、Quanta (廣達)、SOLOMON(所羅門)、TRI(德律)、Thermaltake(曜越)、TSMC(台積電)、UMC(聯電)、Unimicron(欣興)、Wistron(緯創)、Wiwynn(緯穎)、YUAN(聰泰)。
黃仁勳點名的益登、廣運、慧友、弘憶股、迎廣、立端、宸曜、新漢、德律、曜越開盤後就亮燈衝漲停,帶動大盤一度飆漲逾 400 點,終場收在 21,536.76 點,上漲 362.54 點,黃仁勳 43 檔概念股更有 14 檔直接收漲停:圓剛、艾訊、益登、慧友、弘憶股、迎廣、廣運、立端、麗臺、宸曜、新漢、德律、曜越、聰泰。
類別方面,黃仁勳這次主題演講內容為加速運算、微服務、工業數位化及消費者端四大應用,首先「加速運算領域」,包括鴻海使用輝達人工智慧與 Omniverse 技術訓練機器人及簡化組裝作業,並有推動工業自動化技術最新發展的虛擬工廠,以便實體工廠高效率生產下代加速運算的引擎輝達 Blackwell HGX 系統。
輝達多家合作夥伴同樣發表 Spectrum 平台產品,包括永擎電子、華碩、技嘉、鴻佰科技、英業達、和碩、雲達科技、緯創、緯穎,以及戴爾科技、慧與科技、聯想和美超微共同將平台納入各自產品。
第二是「微服務領域」,輝達宣布全球 2,800 萬名開發人員,現在可下載最佳化容器提供模型的推論微服務 NVIDIA NIM,並部署到雲端、資料中心或工作站,使開發人員數分鐘內輕鬆構建輔助夥伴(copilot)、聊天機器人等生成式人工智慧(AI)應用程式,這原先需耗費數週時間。
第三是「工業數位化領域」,輝達宣布台灣主要電子製造商,包括台達電子、鴻海科技集團、和碩聯合科技與緯創資通等使用輝達的技術,透過新的參考工作流程將旗下工廠改造成自主程度更高的生產設施,並結合 NVIDIA Metropolis 視覺人工智慧(AI)技術、NVIDIA Omniverse 符合物理原理的渲染與模擬技術,以及 NVIDIA Isaac AI 機器人開發與部署技術。
第四是「消費端領域」,輝達宣布 NVIDIA ACE 生成式人工智慧 (AI) 微服務全面推出,以加速下一波數位人開發,以及即將於該平台登入的多項全新生成式 AI 突破,而客戶服務、遊戲和醫療保健領域的公司率先採用 ACE 技術,讓創造、真實化及操作逼真的數位人可以變得更簡單,並可廣泛應用於客戶服務、遠距健康、遊戲和娛樂等領域。
統一投顧分析,黃仁勳宣布下波生成式 AI 發展計畫,預計將攜手九大台廠共同打造 Blackwell 架構系統,包括華擎旗下永擎電子、華碩、技嘉、鴻海旗下鴻佰科技、英業達、和碩、廣達旗下雲達、美超微、緯創及緯穎都榜上有名,帶動個股受到相當大的激勵作用。
凱基證券表示,NVIDIA Keynote 發表數個新款 RTX AI 電腦,包括 Asus TUF A14/A16、Zephyrus G16、ProArt PX 13/P16 以及 MSI 之 Stealth A16 AI,多數搭載 Nvidia RTX40 系列顯卡及 AMD Strix Point(Ryzen AI 300)處理器,目前已有超過 200 款 RTX AI 筆電,提供高達 700 AI TOPS、七倍 AI 生成式智慧。
黃仁勳指出,AI 運算模型規模呈現指數級成長,八年內人工智慧運算呈千倍成長,從 2016 年 Pascal 平台為 19TFLOPS(FP16),成長至 2022 年 Hopper 平台 4,000TFLOPS(FP8)、2024 年 Blackwell 20,000TFOPS(FP4),訓練 GPT4-1.8T 能耗節省至 350 分之一,生成 GPT4-1.8T 每單位詞源的能耗節省至 45,000 分之一。
黃仁勳說明,NVIDIA 將維持資料中心規模、一年節奏、技術限制,以及一個架構策略,GPU 產品藍圖兩年一平台,類似 Hopper 平台 H100 與升級款 H200,接著 2024~2025 年為 Blackwell 平台,2024 年推出 Blackwell GPU(8S HBM3e)、2025 年推出 Blackwell Ultra GPU(8S HBM3e 12H),CPU 採用 Grace CPU,Blackwell 平台搭配第五代 NVLINK、CX8 SuperNIC。
黃仁勳補充,輝達 2026 年將推出下世代 Rubin 平台,GPU 含 Rubin GPU(2026 年搭載 8S HBM4)、Rubin Ultra GPU(2027 年 12S HBM4),CPU 則將推出 Vera CPU,升級到第六代 NVLINK,並推出新 CX9 SuperNIC(1,600G/sec),至於 Switch 平台推出 X1600 IB / Ethernet Switch。
本土法人表示,黃仁勳演講提及 AI 伺服器發展及 GPU 產品藍圖,有利 AI 伺服器供應鏈組裝廠與零件廠,鴻海、廣達、緯穎、英業達、緯創、技嘉等都受惠,闡述 AI 工廠與機器人發展的鴻海、廣運、所羅門與機器人供應鏈也都受惠,RTX AI PC 題材則有利華碩、微星等品牌廠。 黃仁勳 43 檔概念股一次看!高達 41 檔收紅、14 檔飆漲停 | TechNews 科技新報
黃仁勳 43 檔概念股一次看!高達 41 檔收紅、14 檔飆漲停 | TechNews 科技新報 https://bit.ly/3VuWvoq
輝達概念股投資總結
人工智能是投資界當下的熱門話題,乘著這股東風眾多輝達概念股在2023年都取得了不錯的成績,但需要注意的是不少概念股的漲幅已經非常巨大,將來實際業績是否能支持高企的股價尚待持續觀察。
另外作為輝達供應鏈上的一員,並非每一家公司對於輝達來說都是不可替代的。隨著輝達業務版圖的擴張,勢必會有更多的企業加入到輝達的供應鏈生態版圖中來,這些新入局者將帶來潛在的競爭。投資者需要動態掌握這些變動以做出及時的應對措施。
但從長期的投資視角來看,人工智慧帶來的變革才剛剛開始,輝達的GPU產品供應仍然不能夠完全滿足市場的需求。而像Sora等文字轉換視頻的人工智慧模型則將進一步推動市場對於相關產品的需求,因此長遠來看台股中的相關概念股都有著實際的業績成長基礎。投資者宜持續關注該產業的發展以從中獲益。輝達概念股有哪些?未來前景如何?2024年輝達概念股值得投資嗎? https://bit.ly/3X6lnnp
黃仁勳 43 檔概念股一次看!高達 41 檔收紅、14 檔飆漲停 | TechNews 科技新報
AI PC、AI 筆電是什麼?跟一般 PC 有何不同?概念股一次看
AI PC、AI 筆電是什麼?跟一般 PC 有何不同?概念股一次看|經理人 https://bit.ly/4bDAx8d
編按:微軟(Microsoft)日前在 Microsoft Build 2024 開發者大會上推出新世代 AI PC,並公布了新一代 AI PC 架構「Copilot+ PC」,以及團隊 AI 助手「Team Copilot」,使得 AI PC 相關話題再度受到業界矚目。AI PC 將如何影響 PC 產業?以下為《經理人》的整理報導:
美國研究調查機構 Canalys 預測,全球個人電腦出貨量已經連續 7 季下滑,但隨著消費者準備更新疫情時期的個人電腦,今年個人電腦(PC)出貨量可望回升,將達 2.67 億台,較 2023 年增加 8%。而且隨著生成式 AI 的興起,人工智慧個人電腦(AI PC)也是成長動能之一,2024 年 AI PC 比重可能達 19%,到了 2027 年,可能 27% 的個人電腦都是 AI PC。
受惠於 AI PC 訂單,仁寶、宏碁、華碩 4 日股價走揚,其中仁寶盤中更一度以 40.35 元攻上漲停價,成交量超過 17 萬張。仁寶日前舉辦線上法說會,總經理翁宗斌指出,下半年 AI PC 將帶來市場需求,而 AI PC 真正帶來較大的推動力,將發生在 2025~2026 年。法人亦看好華碩今年營運成長動能,預估華碩 2024 年營收有望年增雙位數百分比,且獲利增幅高於業績。
AI PC 跟一般個人電腦有何不同?哪些台廠將受惠?《經理人》為您整理如下:
AI PC 是什麼?
目前市面上沒有明確針對 AI PC 的定義,只要電腦本身可以執行生成式 AI 功能,就可以稱作 AI PC,這是與 ChatGPT 等仰賴雲端生成式 AI 的不同之處 —— 透過 AI PC,使用者在終端裝置上就能進行 AI 運算。
企業或個人用戶將來不必將數據上傳,就可以用 AI PC 內建的 AI 應用程式處理有資安疑慮的數據,可以省下上傳資料的時間,也提升安全性。
AI PC 技術關鍵:專用 AI 晶片
隨著生成式 AI 工具的不斷普及,企業和消費者都積極整合 AI 功能以提升生產力和休閒體驗。
許多裝有強大 CPU 和 GPU 的個人電腦已經能夠利用 AI 功能, AI PC 可以完整發揮 AI 強大運算力的關鍵是即時反應能力、低延遲和安全性,因此 AI PC 必須擁有一個專用的晶片組或區塊來加速 AI 計算。
這類算力強大晶片組的幾個例子包括高通(Qualcomm)的 Hexagon 張量加速器(Hexagon Tensor Accelerator, HTA)、蘋果(Apple)的 Neural Engines、英特爾(Intel)的 Movidius VPU 和超微(AMD)的 APU。
AI PC、AI 筆電是什麼?跟一般 PC 有何不同?概念股一次看|經理人 https://bit.ly/4bDAx8d
華碩發表全系列AI筆電!ASUS / ROG NUC系列即日起同步在台上市!
華碩發表全系列AI筆電!ASUS / ROG NUC系列即日起同步在台上市! | NOVA資訊廣場 https://bit.ly/4bK9Q1J
2024-06-05 Next Level. AI Incredible | ASUS Launch Event | ASUS
迎向智慧未來 華碩新世代AI筆電開創無限可能
ASUS / ROG NUC系列即日起同步在台上市!
華碩於COMPUTEX前夕舉辦《Always Incredible》發布會,展示創新AI科技,推出多款從入門到高階的新世代AI PC。華碩共同執行長胡書賓表示「在這波AI革命中,我們要掌握先機,推進『Ubiquitous AI. Incredible Possibilities.』AI發展策略,致力打造智慧和永續的未來,透過華碩跨產品線組合的AI解決方案,實現人人隨時隨地可使用AI的願景。」
華碩發表全系列AI筆電:ASUS ProArt創作者筆電(ProArt P16/PX13/PZ13)、家用筆電ASUS Zenbook S 16、商用筆電ASUS ExpertBook P5,以先進的AI功能與強大算力,為消費者帶來更好的使用體驗。華碩資料中心解決方案提供一應俱全的多元產品,包括搭載NVIDIA GB200 NVL72的ESC AI POD AI伺服器,可執行兆級參數即時推理;還有採用NVIDIA模組化設計及Grace-Hopper晶片組的旗艦伺服器,為Gen-AI工作負載實現最大吞吐量。除了硬體,華碩亦提供全球軟體解決方案和量身訂製的服務,協助企業邁向嶄新高度。與Intel合作開發的全新ASUS AI NUC 2024系列皆已準備就緒,將以極輕巧機身設計,滿足使用者多元需求,成為家用/商業應用與AI運算的理想首選。
微軟裝置夥伴暨銷售事業群副總裁 Mark Linton表示:「很高興參與華碩COMPUTEX新品發表會。Copilot+ PC是有史以來最快、最聰明的Windows PC,專為一般消費者和專業創作者打造,提升運算新標竿,帶來直觀且具有創建性的體驗。」
「AMD和華碩擁有數十年深厚合作關係。透過此次COMPUTEX宣示雙方合作的下一步,共同推出全新世代 AI PC,採用第三代AMD Ryzen AI處理器,配備世界最高50 TOPS NPU,這款強大的處理器採用新一代Zen 5架構,以及全球第一個區塊浮點NPU,可將16位元應用程式的效能提高一倍。」AMD運算與顯示卡事業部資深副總裁暨總經理Jack Huynh 表示:「我們正在開創一個新的PC類別,比以往任何PC都更薄、更輕且更快,勢必帶來革命性的AI體驗。」
「創作者和遊戲玩家需要最佳的AI效能來執行應用程式。」NVIDIA GeForce平台市場行銷副總裁Jason Paul表示:「透過此次合作,為ProArt P16創作者筆電注入高達321 AI TOPS的驚人效能,超過500種以RTX AI加速的創作應用程式和遊戲可獲得顯著提升。」
華碩及ROG玩家共和國COMPUTEX 2024最新產品,6月4日至6月7日上午9點半到下午5點半,於南港展覽館一館4樓M0519a (ASUS)和M0509a (ROG)攤位展示,歡迎蒞臨體驗。
全方位的AI策略:「Ubiquitous AI. Incredible Possibilities.」
華碩憑藉豐富的經驗,與AMD、NVIDIA®、微軟、Intel® 和高通等業界巨頭緊密合作,引領全方位AI潮流。透過華碩共同執行長胡書賓所揭示的「Ubiquitous AI. Incredible Possibilities.」策略,目標是堅持永續發展的承諾,同時將AI無縫整合到營運的全面向。該策略涵蓋雲端和超級運算服務、邊緣裝置、LLM和智慧應用程式,實現全球AI普及化,也希望成為創新的驅動力,為企業和消費市場提供先進解決方案,展現劃時代AI願景。
該策略核心為企業解決方案,特別是針對訓練及推理過程提供堅實後盾的AI伺服器;透過強大算力與LLM模型支援,華碩加速從智慧醫療、智慧製造到智慧零售等多樣化應用開發,更與領先業界的雲端服務供應商,同時也是旗下子公司的「台智雲(TWS)」密切合作,為市場帶來涵蓋硬體、軟體和算力在內的端到端全方位解決方案,促進數位轉型。此外,華碩亦提供AIHPC算力、生成式AI解決方案,以及AI鑄造服務(AFS),企業將能藉此依其特定目標與需求定制LLM。
AI輔助個人運算的新革命
華碩獨步全球推出全系列新世代AI筆電,包含:創作者筆電ASUS ProArt P16 / PX13/ PZ13、家用筆電ASUS Zenbook S 16 (UM5606WA)、ASUS Vivobook S 15 (S5507);商用筆電ASUS ExpertBook P5 (P5405);電競筆電TUF Gaming A16 (FA608)、TUF Gaming A14 (FA401)。將AI完整優化到軟硬體中,大幅提升效能和使用者體驗。AI PC能直接在裝置上處理資料,大幅減少對雲端服務的依賴,保護重要資訊、增強隱私和安全性,與傳統電腦有別,即使在網路連線品質較差的地區,也能擁有更快的反應速度和離線功能。透過微軟全新AI功能,顛覆人們使用PC的方式。新AI功能將於6月18日隨ASUS Vivobook S 15 (S5507)一起推出,其餘型號預計今年底至2025年陸續獲得Copilot+ PC 體驗的免費更新。
為增進使用者的數位體驗,華碩研發兩款AI應用程式:「StoryCube」與「MuseTree」。前者透過AI 演算法對照片/影像檔案智慧分類和管理,瀏覽數位媒體庫也毫不費力;後者為生成式AI工具,以直覺的方式釋放創造力,製作令人驚艷的圖像。
值得信賴的是,華碩AI PC採用先進的智慧隱私設定:智能鎖定和其他搭載AI的隱私功能,透過ASUS AiSense紅外線攝影機的偵測達到智能調光,使用者移開視線時螢幕變暗,離位時智能鎖定、返回時解鎖,保護隱私同時節省電力。
AI筆電打造更智慧的未來
ASUS ProArt創作者筆電
全新ASUS ProArt創作者筆電更加輕巧強大。擁有卓越創作效能的ProArt P16、可翻轉的ProArt PX13和僅有0.85公斤的ProArt PZ13二合一筆電。P16和PX13搭載AMD Ryzen™ AI 300系列處理器及最高NVIDIA GeForce RTX 4070顯示卡,帶來超過300 TOPS 的 AI算力。PZ13則搭載支援AI的 Qualcomm Snapdragon處理器。搭配最高4K ASUS Lumina OLED螢幕和Dolby Atmos音訊等沉浸式功能,助力創作者隨時隨地揮灑創意。儘管具有高效能,機身仍保有纖薄、輕巧且軍規等級耐用,是忙碌創作者的理想選擇。ProArt Creator Hub和其他AI功能(例如StoryCube和MuseTree)大大增強了創意體驗。
ASUS Zenbook S 16輕薄AI筆電
採時尚、輕盈設計的ASUS Zenbook S 16 (UM5606WA) AI筆電,16吋機身薄僅1.1公分,輕1.5公斤。高科技陶瓷鋁合金外蓋,加上CNC加工的鍵盤區域,確保耐用性和典雅外觀,共有白、灰雙色選擇。Zenbook S 16配備高達50 TOPS NPU的AMD Ryzen™ AI 9 HX 370處理器,最高2 TB PCIe® 4.0 x4 SSD和32 GB LPDDR5記憶體,Copilot鍵和加強散熱的均溫板提高工作效率,將性能進化至28 W。14吋Zenbook S 14將搭載新一代Intel® Core™ Ultra處理器,預計2024年下半年上市!
ASUS Vivobook S 15新世代AI筆電
華碩首款新世代AI PC—ASUS Vivobook S 15 (S5507)已開放預購,搭載Qualcomm® Snapdragon® X Elite 處理器及AI引擎,NPU具備45 TOPS算力,70Wh電池最高達18小時續航力,並配備15.6吋3K 120 Hz ASUS Lumina OLED螢幕及Harman Kardon認證音響,輕1.42公斤、薄14.7公釐方便攜帶。6月底前購機登錄送「早鳥大禮包」(含原廠延長保固半年、100W GaN充電器及行李托特包,總價值NT$4,589),建議售價:NT$49,900。
另有搭載AMD Ryzen™ AI 9 HX 370處理器的ASUS Vivobook S 14 (M5406)和 S 16 (M5606),全新設計更加輕薄,薄13.9 公厘,輕1.3 公斤。搭配AMD Radeon顯示卡、32 GB LPDDR5X記憶體和1 TB PCIe® 4.0 SSD,隨時隨地提供無與倫比的效能。
ASUS TUF Gaming A16 / A14電競筆電
16吋TUF Gaming A16 (FA608) 最高配備AMD Ryzen™ AI 9 HX 370處理器和GeForce RTX™ 4060顯示卡,2.5K 165 Hz螢幕帶來流暢的遊戲體驗,LPDDR5X 7500 MHz記憶體和最高2 TB PCIe 4.0 SSD確保超快的反應速度。14吋TUF A14 (FA401)配備頂級AMD處理器和最高GeForce RTX 4060顯示卡,2.5K IPS螢幕呈現絕佳視覺。兩款電競筆電皆具備Dolby Atmos音效、高速連線功能及輕量設計,享受極致遊戲體驗不受侷限。
ASUS ExpertBook P5商用筆電
華碩首款專為商務人士打造的新世代AI筆電,全面提高生產效率。體現了華碩致力於為所有專業人士帶來最新技術以助其成功的承諾。ExpertBook P5 搭載新一代 Intel® Core Ultra 處理器,並擁有45+ TOPS NPU,同時整合語意搜尋、對話式 AI、AI聲紋識別等尖端AI功能,大幅簡化複雜任務,強化工作效能與團隊合作。具備3年保固的ExpertBook P5 採用商用級 BIOS 和軍規等級耐用性,鋁製機身採用精密工藝且耐用設計,搭配14吋16:10 2.5K螢幕,將優雅與高性能完美融合。更多產品資訊將於第三季更新。
超乎想像的螢幕解決方案
ProArt Display 5K PA27JCV是一款27吋的5K高PPI專業螢幕,擁有令人驚艷的5120 x 2880解析度及218高PPI顯示效果。99% DCI-P3和100% sRGB色域能確保逼真色彩再現,滿足各種專業工作所需。LuxPixel技術、Calman Verified與廣泛連接選項,則提供卓越的色彩準確性和無縫整合能力。華碩LightSync解決方案可根據環境變化做出調整,搭配人體工學腳座,大幅提升使用者舒適度;華碩亦同步推出ProArt Display PA32KCX,為全球首款內建校色器的8K Mini LED專業顯示器,呈獻最無與倫比的視覺體驗。
新AI策略核心—伺服器解決方案
作為AI策略的驅動力,華碩資料中心解決方案將重點放在全新ESC AI POD,其配備NVIDIA GB200 / B100 / B200和GH200晶片,引領業界創新,尤其搭載NVIDIA GB200 NVL72的機種,更是目前全球最強大的兆級參數規模即時推論與訓練機架式解決方案,同時亦針對混合與邊緣運算領域提供端到端服務,透過軟體、系統驗證、遠程部署,以及量身定制的資料中心解決方案,協助企業日益興盛、永續發展,並在SPEC CPU和MLPerf等基準測試、記錄中取得卓越佳績。
AI NUC:重新定義多功與創新
ASUS NUC不僅象徵對卓越技術的承諾,亦透過創新設計重新定義迷你電腦的性能與使用體驗。本次COMPUTEX 2024會場中,華碩盛大展出全系列AI Ready的NUC產品,包括:即日起在台上市的NUC 14 Pro、NUC 14 Pro+、ROG NUC,以及NUC 14 Performance,這些兼具精巧機身與先進AI人工智能運算的迷你電腦解決方案,可滿足從一般消費者到高端商用客戶、遊戲玩家,甚至工業應用等廣泛需求,絕對是消費者在物色AI PC時的上上之選!其中初次亮相的生力軍—NUC 14 Performance,搭載Intel® Core™ Ultra 9 / 7處理器與NVIDIA® GeForce RTX® 4070 / 4060顯示卡,無懈可擊的震撼效能將為新AI業務開發者,如:內容創作者、專業人士,帶來傲視業界的客製化選項,再造微型運算之巔!
而於今年CES中重磅登場,各界敲碗許久的電競迷你電腦ROG NUC,今日也同步開賣,其2.5公升的俐落機身內建Intel® Core™ Ultra 9 / 7處理器,以實現出色性能,搭配NVIDIA® GeForce RTX® 4070 / 4060獨立顯示卡,至多可外接四台4K螢幕,強大的圖像運算力,確保玩家無時無刻都能輕鬆坐享極致順暢的遊戲體驗。
ASUS NUC 14 Pro / 14Pro+,建議售價請洽全台各零售通路及經銷商(依實際規格而異);更多詳情請參考:ASUS NUC 14 Pro+ / ASUS NUC 14 Pro
ROG NUC,建議售價:NT$ 56,900 (Ultra 7 + RTX 4060) / NT$ 69,900 (Ultra 9 + RTX 4070);更多詳情請參考:ROG NUC
Next Level. AI Incredible | ASUS Launch Event | ASUS
Computex 將登場 AI PC 商機爆發!各廠布局、概念股一次看
整理包/Computex 將登場 AI PC 商機爆發!各廠布局、概念股一次看 | 產業熱點 | 產業 | 經濟日報 https://bit.ly/3KszeNz
2024/05/29 16:32:00整理包/Computex 將登場 AI PC 商機爆發!各廠布局、概念股一次看 | 產業熱點 | 產業 | 經濟日報 https://bit.ly/3KszeNz
經濟日報 新聞部編輯中心/數位編輯林宜萱整理
今年可說是「AI PC 元年」,6月4日將登場的台北國際電腦展(Computex 2024)聚焦AI PC應用,微軟在5月21的開發者大會上也宣布推出新一代AI PC 架構「Copilot+PC」,堪稱地表最強AI PC,有望挑戰蘋果電腦地位。
到底AI PC是什麼、各廠進度如何、台廠供應鏈有哪些,本報整理相關資料供讀者參考。
重點馬上看
1. AI PC是什麼?
2. AI PC有何好處?
3. 大廠布局進度
4. AI PC概念股有哪些?
5. AI PC 未來展望
AI PC是什麼?
目前業界對AI PC的定義尚不明確,廣義上來看,AI PC是指電腦裝置本身具備生成式AI功能,目前ChatGPT 等生成式AI要靠雲端平台執行運算,而透過AI PC,使用者不需仰賴雲端,在裝置上就能進行AI運算。
英特爾及微軟對AI PC的定義有三個條件,首先能運行微軟AI助理Copilot;其次需具備Copilot實體按鍵,目前市面上Windows 11的筆電已陸續採用此設計;最後一項是要內建NPU、CPU以及GPU。
至於算力要求,微軟認為NPU算力至少要40 TOPS以上,若是離線使用Copilot的機種,算力則要達到45 TOPS以上。
AI PC有何好處?
AI PC對使用者有何幫助呢?AI PC能協助管理使用者工作、代辦事項,或是下簡單指令,快速生成文字、圖片、音樂、影像等。
另外,AI PC對資安的保護也更完善,惠普(HP)執行長羅爾斯指出,若企業或個人用戶想用AI應用程式處理私人數據,不必將數據上傳,AI PC就能直接處理,不只減少延遲時間,也提高資安防護。
2023電腦展颳起AI風潮...今年展前又有哪些重點?
整理包/AI爆發周年!輝達黃仁勳再來台 台北國際電腦展前重點一次看
大廠布局進度如何?
科技巨頭爭相卡位AI PC,帶您從晶片、軟體、品牌三個面向來看各廠布局。
一、晶片
英特爾:
英特爾執行長基辛格表示,有信心兩年內領先業界、於2025年達成出貨超過1億台AI PC的目標。
英特爾去年已推出「Meteor Lake」的 Core Ultra 處理器,首次整合 NPU 以提升AI運算能力,並採用 Foveros 高級3D封裝技術,可提供更高的能源效率和圖形效能;今年5月20日再發布消息,表示次世代處理器「Luna Lake」將在第3季出貨,NPU算力高達45TOPS,預計今年Metro Lake及Lunar Lake合計將出貨4,000萬顆。
英特爾去年底在台舉辦相關發布活動,包括宏碁、華碩、微星、神達、技嘉、雲達、富士康工業互聯網、研華、英業達、和碩、美超微、緯創與緯穎等廠商的相關筆電或伺服器產品都亮相。
高通:
高通與微軟合作,搶攻AI PC處理器市場。微軟日前宣布推出AI PC架構新標準「Copilot+PC」,搭載高通以安謀(Arm)架構設計的「驍龍X Elite」處理器,而非兩大CPU廠英特爾及超微的X86架構,高通驍龍 X Elite處理器的NPU算力高達45TOPS。
目前,華碩、宏碁、惠普、戴爾、聯想、微軟和三星等廠商,宣布推出首批超過20款搭載驍龍X Elite和驍龍X Plus的Copilot+ PC。
傳出輝達與聯發科兩強合作,搶進AI PC市場,輝達擁有強大的遊戲圖形處理器和AI GPU,結合聯發科的安謀架構設計能力,兩者聯手開發AI PC處理器,預計第3季完成設計定案(tape out),第4季進入驗證,明年上半年量產。
COMPUTEX 2024將在下周登場,有消息傳出聯發科將透露與輝達合作的細節,輝達執行長黃仁勳也已於26日晚間抵台,外界關注屆時是否會釋出相關消息,預料將再掀起轟動。
超微:
超微執行長蘇姿丰去(2023)年7月出席創新日時,展示首款x86處理器的AI 引擎 Ryzen AI,蘇姿丰看好AI龐大商機,並表示未來5年AI將無所不在, PC仍是非常大的市場。
直到今(2024)年4月再度推出兩款全新商用AI PC處理器,號稱是「最強大的商用PC處理器」,較勁英特爾意味濃厚。除了針對筆電市場的「Ryzen PRO 8040」系列,另有桌機市場的「Ryzen PRO 8000」系列處理器,均採台積電4奈米製程生產。而首波合作廠商包含聯想與惠普等品牌廠。(延伸閱讀:超微推 AI PC 處理器 獲聯想、惠普採用...台鏈沾光)
二、作業系統
微軟:
Surface Laptop 6商務版提供白金色和黑色供選購,另有13.5吋及1...
Surface Laptop 6商務版提供白金色和黑色供選購,另有13.5吋及15吋。微軟/提供
微軟5月20日推出新世代AI PC,設立新一代AI PC架構新標準「Copilot+PC」,搭載高通以安謀(Arm)架構設計的「驍龍X Elite」處理器,打造「地表最強AI PC」,除了微軟自家Surface系列電腦採用Copilot+PC標準,聯想、戴爾、惠普、宏碁、華碩、三星等也推出搭載高通處理器、符合Copilot+PC標準的新款AI PC。
微軟執行長納德拉(Satya Nadella)直言,要與Mac能真正競爭!微軟預期,明年AI PC市場百花齊放,銷量將達5,000萬台,能直接在PC執行更快的AI助理,正是「最吸引人的換機理由」。
三、品牌
華碩:
2024最新法說會,華碩共同執行長許先越看好AI PC動能,他形容,「AI PC只要搭配一些適當的軟體,就像每個用戶都有虛擬特助一樣,對生產力提升很大」。(延伸閱讀:華碩法說會/看好 AI PC 潛力 許先越:就像每個用戶都有虛擬特助)
華碩5月21日舉行新品發表會,首款搭載高通Snapdragon X Elite處理器及AI引擎的新世代AI PC亮相,NPU具備45 TOPS,總算力高達75 TOPS,為搭載最新Windows AI功能與華碩獨家AI應用程式的Copilot+PC,是華碩至今TOPS算力最強的AI PC。
ASUS Vivobook S 15整合多項AI功能,包含「即時字幕」通訊時將語音即時轉為英文字幕;全新Cocreator支援NPU應用,輸入文字或圖片指定即可生成各式圖像;「回顧」功能只需輸入關鍵字,即時查找資料。
宏碁:
今(2024)年1月CES展期間,宏碁推出PC產品暖身,隨著6月電腦展腳步趨近,新品連發,一口氣推出9款支援AI PC功能的筆電,要來搶占AI PC先機。
宏碁董事長陳俊聖3月出席「2024智慧城市展暨2050淨零城市展」受訪時表示,硬體處理器方面,先有英特爾推出AI PC方案,預期高通也將跟進。至於,軟體應用部分,Google 、微軟持續推出相關產品,相信一波接一波的新應用及方案都會刺激AI PC銷量。
作為品牌廠,宏碁積極與各界合作,陳俊聖表示,「每一個晶片平台的產品我們都會有,每一波我們都會跟上。」就市場需求而言,AI PC現在就是一個爬升(ramp up)的過程,並持續攜手英特爾、超微。
聯想推出AI PC系列產品概況
聯想推出AI PC系列產品概況
微星:
板卡大廠微星對於AI PC發展及佈局也都相當看好,董事長徐祥認為,神經網路處理器(NPU)普遍導入PC,未來每台電腦都會是AI PC。並積極在桃園購地擴廠,要搶未來式商機。
微星日前公布股東會營業報告書,將積極掌握人工智慧(AI)時代新商機,推出AI PC在電競市場擴大市占,徐祥指出,在AI PC新品陸續問世,以及微軟停止支援Windows10作業系統等影響下,預期對PC的汰舊換新將推波助瀾,全球PC市場可望在第2、3季開始成長。
AI PC概念股有哪些?
即將到來的Computex展重點聚焦AI PC,相關個股成為台股盤面焦點,從IC設計、晶片先進製程、記憶體到零組件及組裝廠都將受惠。
目前受市場矚目的「AI PC概念股」,包含晶圓代工的台積電、與輝達合作開發AI PC處理器的聯發科;封測廠日月光投控;品牌廠宏碁、華碩、微星、技嘉;代工廠廣達、緯創、英業達、仁寶、和碩,另還有譜瑞-KY、祥碩、新普、欣興等。
AI PC供應鏈。 經濟日報製表
業界普遍看好,今年是AI PC元年,推升PC供應鏈相關廠商業績恢復成長。根據摩根士丹利預測,預期AI PC今年會占整體PC市場的2%,接下來明年市占成長至16%、2026年達28%、2027年達到48%,到2028年更衝上64%。
華碩共同執行長胡書賓分析,雖仍要看大環境政經因素,但包含AI PC、Windows的更新、傳統PC換機潮的時間快到了,這是產業面正向因素,下半年可以期待。
至於需求如何?陳俊聖指出,AI PC早期應用會在商用領域,因為需求較具體,至於消費端方面,現在用戶買新電腦,當然希望具有AI功能在裡面,「目前來看我們覺得還不錯,出貨各方面都蠻順利的,我們就覺得市場有需求、客戶想要產品,我們就盡快出貨」。
超微推 AI PC 處理器 獲聯想、惠普採用...台鏈沾光
超微推 AI PC 處理器 獲聯想、惠普採用...台鏈沾光 | 今晨必讀 | 要聞 | 經濟日報 https://bit.ly/3x37ZGe
號稱最強大商用產品 獲聯想、惠普採用 代工廠廣達、緯創、仁寶出貨喊衝
超微推 AI PC 處理器 獲聯想、惠普採用...台鏈沾光 | 今晨必讀 | 要聞 | 經濟日報 https://bit.ly/3x37ZGe
2024/04/18 02:17:38
經濟日報 編譯黃淑玲、記者林薏茹╱綜合報導
超微(AMD)美國時間16日推出兩款全新商用AI PC處理器,號稱是「最強大的商用PC處理器」,較勁英特爾意味濃厚。超微並透露,前兩大筆電品牌廠聯想、惠普都將導入超微新AI PC處理器,並於本季推出終端機種。
法人看好,超微擴大AI PC處理器產品線,並且獲得聯想、惠普採用。隨著品牌廠新機問世在即,代工廠廣達(2382)、緯創(3231)、仁寶(2324)、英業達(2356)雨露均霑,出貨引擎蓄勢待發,營運喊衝。
超微推新AI PC處理器
超微推新AI PC處理器
目前全球商用PC處理器市場霸主為英特爾,超微此次端出「最強大商用PC處理器」,隔空叫陣英特爾,全力搶攻AI PC市場商機。超微並強調,新處理器展現的運算效能與效率,都比英特爾、蘋果的產品更佳。
超微此次推出針對筆電市場的「Ryzen PRO 8040」系列,以及桌機市場的「Ryzen PRO 8000」系列處理器,均採台積電4奈米製程生產。兩款新處理器均加入神經網路處理器(NPU),以提供更優異的AI運算效能。
超微指出,Ryzen Pro 8000系列採用AMD XDNA架構的NPU、Zen 4架構的CPU與RDNA 3架構的GPU,以提供最佳的AI體驗。相較於最新競品,Ryzen PRO 8040 系列處理器響應速度高出86% 、多任務處理能力高出34% ,顯卡效能也高出30%。
聯想與惠普是首批搭載超微最新商用AI PC處理器的品牌廠,相關終端產品本季起陸續推出,包括惠普的HP EliteBook 805系列G11筆電、HP EliteBook 605系列G11筆電、HP ProBook 405系列G11筆電等,及聯想的ThinkPad T14 Gen 5、ThinkCentre M75s Gen 5等系列產品。
超微全力布局AI市場,去年12月宣布旗下加速處理單元(APU)MI300A已進入量產,AI加速器GPU MI300X也開始出貨。超微執行長蘇姿丰上月指出,疫後全球PC市場需求確實有所下降,但今年應可看到一定程度的成長,AI PC會使消費者汰舊換新,看好將是帶動今年PC市場重回成長的重要動能。
今年第1季全球PC出貨量年增1.5%,為睽違兩年重返成長。研調機構Canalys預估,AI PC出貨量可望逐年成長,今年估達4,800萬台,2028年可望進一步擴增2.05億台。
超微推 AI PC 處理器 獲聯想、惠普採用...台鏈沾光 | 今晨必讀 | 要聞 | 經濟日報 https://bit.ly/3x37ZGe
目前有哪些支援 NPU 的筆電平台?AI PC、AI筆電是什麼?AI PC定義、產品一次懂:你真的需要AI PC嗎?|數位時代 BusinessNext https://bit.ly/4aVRHfX
Snapdragon X Elite
專為 AI 打造的Snapdragon X Elite,整合了全新定製的高通 Oryon CPU、Adrendo GPU 以及獨立的 NPU 神經處理器單元。採用 4 奈米製程,CPU 部分採用 12 核心配置,最高時脈為 3.8 GHz, GPU 部分,搭載的 Adrendo GPU 提供 4.6 FLOPS 運算效能, 支援 DirectX 12 API 以及 4K 60p 10bit 的 H.264/HEVC(H.265)/AV1 螢幕編碼。
至於針對未來需求增加的 AI 運算需求部分,透過 Qualcomm Hexagon NPU,最高可提供45 TOP(每秒兆次運算)算力,支援在終端側運行超過 130 億參數的生成式 AI 模型,處理速度是競品的 4.5 倍,面向 70 億參數大模型時每秒可生成 30 個 token。據高通表示,這款行動運算 CPU 的性能是競品的兩倍,在達到相同峰值性能時,功耗僅為競品的三分之一
高通預計搭載Snapdragon X Elite晶片的筆電將在2024年中期上市,首發廠商包括微軟、聯想、戴爾和惠普。高通也承認,Elite系列只是該公司計畫在未來幾年發佈的諸多版本之一,從而以不同的價位衝擊不同的PC細分市場,以便更好地與英特爾和AMD競爭。此外,高通也表示,Oryon不僅僅適用於Windows筆電,還將「在未來進入智慧型手機、汽車、XR 裝置等領域」。
AMD Ryzen 7000 系列
AMD 2023年初發佈的 Ryzen 7040系列處理器,第一次為x86處理器加入了獨立的 NPU AI 引擎硬體單元,AMD提出了AMD Ryzen AI 引擎技術,可讓用戶在 AI PC上更易於使用個人運算的強大功能,為工作、共同作業和創新開啟全新等級的效率,使您能與周圍的世界保持更緊密的連結。
AMD RyzenAI
AMD提出了AMD Ryzen AI 引擎技術,可讓用戶在 AI PC上更易於使用個人運算的強大功能。
圖/ 超微提供
目前AMD Ryzen 7040 系列處理器以及下一代Ryzen 8040系列的處理器均支援AMD Ryzen AI 引擎技術。
AMD Ryzen AI引擎基於全新設計的XDNA 架構,可以脫離網路和雲端,在本地執行AI工作負載,進而降低延遲、保護隱私。
當然,它也可以在端-雲混合場景中運行,在雲端伺服器和本地筆電之間分配任務、協同加速。
AMD Ryzen AI 引擎技術.jpeg
AMD Ryzen AI 引擎技術。
AMD Ryzen AI_1.jpeg
AMD Ryzen 7040 系列處理器以及下一代Ryzen 8040系列的處理器均支援AMD Ryzen AI 引擎技術。
Ryzen AI的應用也不斷拓展,合作夥伴包括Adobe、微軟、Avid、Bori SFX、OBS Studio、Topaz Labs、Zoom、Cyberlink、XSplit VCam、Luminar、Audacity、Arkrunr、Blackmagic Design、Capcut,以及中國的字節跳動、愛奇藝,等等。
Ryzen AI驅動的加速功能目前也已有100多個,尤其是在Adobe Photoshop、Premiere Pro、After Effect、Lightroom等創意設計軟體中,大量的日常操作都可以從中獲得極大的效率提升。
AMD Ryzen 7040系列行動處理器搭載全球最快速的PC處理器顯示核心.jpg
Intel Core Ultra系列
再來就是最新的,英特爾代號為「Meteor Lake」的Core Ultra行動PC處理器。不只內建CPU、GPU,還整合了一個可用於推論加速的AI引擎NPU,來提高這款處理器對於生成式AI的處理能力,這也是為英特爾首款整合NPU的產品。
英特爾Metero Lake
Meteor Lake的產品名稱為Core Ultra處理器,於2023年12月14日正式推出。
在最新推出的 Core Ultra 系列筆電處理器,同樣是採用混合大小核心設計,提供最高 16 核心,包括 6 個效能 P 核心、8 個效率 E 核心,以及 2 個超低功耗 E 核心,最高 22 條執行緒。透過新一代 Thread Director 技術,可以更精準地分配運算任務給不同型態的核心,以達到更高的系統效能與電池續航力。
英特爾AI PC
2024將是AI PC元年,Intel(英特爾)CEO基辛格也已經預告了AI PC 產品。
在時脈方面,最高可達 5.1 GHz,並內建 Intel Arc GPU,最高搭配 8 個 Xe 顯示核心與 XeSS 超採樣技術,相容微軟 DirectX 12 Ultimate,在資料處理和圖形轉換效能有顯著提升。同時透過結合專用 NPU 元件,可整合 CPU 和 GPU 的運算效能,大幅推升裝置端的人工智慧運算效能,使電池續航力提高 2.5 倍。也可搭配 OpenVINO、ONNX 等工具,加速建構各類人工智慧模型與應用服務。
先前英特爾在9月底介紹這款處理器曾提到過一個概念,就是表示一款AI加持的處理器,不只是需要整合AI加速的NPU來提高生成式AI處理能力,還需要結合模組化、多晶磚設計等,提升其性能和降低功耗。
隨著 Intel Core Ultra 處理器正式推出,搭載最新處理器的 AI 筆電也陸續推出,包括 Acer Swift Go(SFG14-72)、Asus Zenbook 14 OLED (UX3405)、Dell Inspiron 13 5330、 Gigabyte AORUS 17 (2024)、Lenovo IdeaPad Pro 5 14IMH9、Lenovo Yoga 9 2-in-1 14IMH9、LG LG gram16 (16Z90S)、MSI Prestige 16 AI Evo B1MG、MSI Prestige 13 AI Evo A1MG…等,將推出 230 款產品,並預期在 2028 年時,AI PC 將會佔據 80% 的 PC 市場。
Windows 11 的 AI 功能的支援
雖然說大多數人對於AI應用的想像不一樣,也不確定會需要用到什麼與AI相關的功能,但是,有一個例外,那就是Windows與AI應用的相關功能。
畢竟微軟算是最積極擁抱AI的廠商之一,而Windows也是最多人用的作業系統,因此是否支援Windows的AI功能,或許會是一個需要考量的重點。
無論是AMD或是Intel,其實都有跟微軟進行合作,支援Windows還在發展中的AI創新功能。像是 Ryzen AI在Win11升級之後就可以支援後者的AI創新,比如Windows Studio Effects,該模組可以加速這個應用中的自動取景、背景模糊等功能。
除了AMD之外,Intel的處理器也會增強AI支援,代號Meteor Lake的14代Core中也會有專門的AI加速功能,直接內建VPU單元以加速AI應用。
但是,這就回到了一個更基本的問題:這些Windows 11(或是Windows 12)的AI功能真的值得你升級嗎?
以目前看到的資料來說,像是微軟主打的copilot,其實背後是用到ChatGPT的服務,基本上這跟你有沒有NPU無關,用了NPU也不會跑得比較快。
而現在能支援的AI創新功能,就只是一些不同應用程式加入的一些AI工具罷了,比如前面說的「Windows Studio Effects」,這是給Windows相機用的模組,有了AI支援可以加速這個應用程式中的自動取景、背景模糊等功能。其實不是什麼很吸引人的AI功能。
因此,以目前Windows需要用到NPU加速的AI功能來說, 微軟這邊還沒有亮出一個很重要、讓用戶覺得不得不升級的殺手級應用程式出來。
延伸閱讀:AI PC是什麼?為什麼超微押寶樂喊「大浪來襲」!蘇姿丰揭開未來佈局
現在AI PC、AI筆電、AI手機的產品真的成熟了嗎?
雖然現在有廠商跟業者喊出2024年將會是「AI PC元年」,那麼,AI PC產品真的成熟了嗎?
其實這個問題,可能要打一個問號。
業者喊出這個口號,主要的原因不外乎是過去一年以來,PC的銷售量已經持續低迷太久,亟需一個明星產品來拉抬整個產業。而AI也的確是一個重量級的議題,足以承擔這個重任。
但是,現在的問題是,AI PC、AI 筆電能做什麼?這個「目的」還含糊不清。
你跟一百個人提到「AI PC」這個名詞,可能有一百種不同的想像。有些人買來可能覺得可以在上面立刻可以不需要上雲端、在本機AI生成圖片;有些人可能想的是在上面跑類似ChatGPT的文字生成服務,甚至建立自己的ChaGPT; 或是有些人想要拿來訓練自己的AI模型。
甚至。有些人想的只是想要直接能用ChatGPT、或是使用Windows 11的 copilot。但是事實上,這兩個服務你根本不需要買什麼AI PC就可以用。
以AMD以及intel來說,目前兩家廠商在談到自家的AI引擎,都是以「進行式」在談的,他們同時與不同的廠商以及開發者合作,讓自家的AI技術可以支援更多的AI服務以及應用,再透過合作的方式,來修正自家的AI引擎。
其實先前AMD的財務長在巴克萊全球科技會議(Barclays Global Technology Conference)就分析過,雖然AI PC的終極目的是讓的許多AI任務可以在裝置端執行、不用上雲端。但是她認為真正可以成熟的時間點,應該不是在2024年,而是要到2025年。
目前看來似乎也是,如果你是一個比較資深的、進階級的AI使用者,你可能會比較清楚購買一台AI PC、AI筆電能夠帶給你什麼樣的幫助,那麼你應該會想要很快入手一台。但相對來說,如果你現在不清楚AI PC、筆電能帶給你什麼幫助,那麼入手一台產品,則也不會因此就幫助你的AI技能加分。
畢竟,買NPU跟GPU不一樣,你買了顯卡你可以期待為你在玩遊戲的時候提升一定的效能,但是有了NPU並不會讓你在跑ChatGPT或 copilot時回答快一倍、或是Midjourney出圖出更多。(但的確可能可以讓stable diffusion跑更快)因此,如果你是一般的「AI小白」,平常對AI的應用就是下下提示詞、與AI聊天生成應用等等的,目前的AI筆電對你來說可能還沒有這方面的需求。
AI PC、AI筆電是什麼?AI PC定義、產品一次懂:你真的需要AI PC嗎?|數位時代 BusinessNext https://bit.ly/4aVRHfX
靈活 探索未來智慧科技,快速、、高效 AI PC,思考更聰明,工作更快速 - 筆記型電腦 | Acer 台灣官方商城
AI PC概念股有哪些?台廠供應鏈誰受惠?Computex 2024 登場,NVIDIA、AMD、Intel都關注的AI PC現況全解析|豐雲學堂 2024 年 06 月
AI PC是什麼?與傳統電腦差在哪?市場發展現況一篇了解
2024/5/26 09:10(6/3 12:03 更新)AI PC是什麼?與傳統電腦差在哪?市場發展現況一篇了解 | 科技 | 中央社 CNA https://bit.ly/3VvjBLq
微軟宣布聯手3大晶片廠、6大電腦業者共組「Copilot+ PC」生態圈。(路透社)
(中央社記者曾仁凱台北26日電)台北時間5月21日凌晨,微軟一年一度的開發者大會Microsoft Build 2024在美國西雅圖登場,微軟在會中宣布聯手3大晶片廠、6大電腦業者,共組「Copilot+ PC」生態圈。
微軟Build開發者大會登場 推動AI工具發展
一夜之間,從宏碁、華碩、戴爾,到高通(Qualcomm)、英特爾(Intel),紛紛舉行新品發表會或發布新聞稿,宣布AI PC上市的最新進程,AI PC成為最火熱的搜尋關鍵字,尤其6月台北國際電腦展(COMPUTEX)即將到來,將為這波AI PC浪潮炒熱到最高點。
到底什麼是AI PC,為什麼需要AI PC,市場規模有多大?中央社整理專家看法,讓讀者一文看懂AI PC。
什麼是AI PC,與傳統電腦有何不同?
AI PC,顧名思義,就是能夠執行AI運算的個人電腦。傳統電腦運算以CPU(中央處理器)為核心,CPU核心數少,但每個核心結構複雜,適合用來進行複雜的控制與運算。
但新的生成式AI,就像教導小朋友認識貓或狗,問題並不複雜,但背後牽涉大量資料的運算處理,進行「訓練」(training)與「推論」(inference),這時NPU(神經網絡單元)就比CPU更適合派上用場。因為NPU與CPU特性倒過來,其核心數非常多,但每個核心結構簡單,適合用來進行大量重複性的一般運算,也就是俗稱的平行運算。
目前AI PC的定義眾說紛紜,資策會產業情報研究所(MIC)資深產業分析師黃馨認為,AI PC最關鍵要素就是必須具備NPU,可在本地端執行生成式AI應用程式。
而微軟也提出最新定義,要能支援旗下Copilot AI功能的電腦機種,算力至少要達40 TOPS以上(NPU的單位,1TOPS代表處理器每秒鐘可進行1兆次操作),若離線使用Copilot的機種,算力要45 TOPS以上。另外記憶體容量至少要16GB,儲存容量至少要256GB,電池續航力也有相關要求。
為什麼需要AI PC?
這幾年,由ChatGPT掀起的生成式AI浪潮席捲全球,看好未來各種AI應用發展希望無窮,各大CSP(雲端服務供應商)或企業大舉投入布建AI基礎建設,帶動AI伺服器市場超火熱。
惟聯發科總經理暨營運長陳冠州觀察,目前大部分的LLM(大型語言模型)都放在雲端訓練,他認為這波AI浪潮接下來會逐漸從雲端走向邊緣裝置,帶動AI PC、AI手機市場起飛。
陳冠州所持4大理由包括,AI PC在內的邊緣運算比較便宜;其次如果所有運算都放在雲端,網路傳輸量會相當大;而且龐大的雲端算力所消耗的電力,可能會讓整個電網崩潰掉;第4則是安全性和隱私權,最後大家可能還是會希望資料或運算能放在自己身邊,比較放心。
AI PC市場何時起飛?
華碩共同執行長胡書賓認為,2024年是「AI PC元年」。隨著高通、英特爾、超微等晶片大廠下半年將陸續推出對應AI運算功能的電腦處理器,加上微軟的Copilot人工智慧應用平台下放到PC市場,到時候各種應用出籠,將為使用者帶來全新體驗,刺激PC市場開啟全新的成長週期,而且維持數年。
不過胡書賓也提醒,AI PC市場不是馬上爆發,因為AI要普及,必須硬體、軟體和各種應用服務相互配合,接下來會需要一段業者和消費者共同學習激盪的過程,大家才知道要拿AI用在哪裡,設備迭代改善。
和碩董事長童子賢則比擬,AI不是一個產品,而是科技進展到一個階段後,自然存在環境的重要要素,就像20年前的網際網路,現在大家已經不會去特別強調我的電腦有連網功能,因為這已經像呼吸空氣一樣是自然的存在,他認為把時間拉長看,未來所有電腦都會是AI PC。
AI PC市場規模有多大?
資策會MIC預估,大量AI PC新品將於今年下半年開始進入市場,估計2024年AI PC之於全球PC市場的滲透率約15.7%,2025年倍增到33%,2026年提升到48.4%,到2027年成長到65.9%,等於屆時每3台新電腦,就有2台是AI PC。
剛宣布籌組「Copilot+ PC」生態圈的微軟,準備下放更多Copilot AI應用服務到PC端,微軟已經喊出,目標未來1年要賣出5000萬台AI PC。
同時,英特爾也預告,將於2024年第3季推出代號Lunar Lake的最新處理器,AI效能可達上一代處理器的3倍以上,超過40 TOPS,目標今年全年要出貨超過4000萬顆AI PC處理器。AI PC是什麼?與傳統電腦差在哪?市場發展現況一篇了解 | 科技 | 中央社 CNA https://bit.ly/3VvjBLq
在這次展會上,高通一口氣展示由華碩、宏碁、戴爾、惠普、聯想、微軟和三星等品牌推出的22台搭載Snapdragon X Elite和Snapdragon X Plus處理器的AI PC。(圖/彭世杰攝,以下同)
COMPUTEX 2024》一口氣展示22台AI PC!高通總裁Cristiano Amon:高通正轉型為通訊、互連運算公司 https://bit.ly/3yLDTax
PC產業正處於AI革命的關鍵時刻,高通也將透過旗下旗艦處理器重新定義AI PC。6月3日,高通總裁暨執行長Cristiano Amon第一次受邀在Computex展會論壇演講,他在演講中語出驚人地宣告:「今天是高通作為運算領域領導者的畢業日,因為高通正在轉變為一家通訊、互連運算公司,讓真正的智慧化裝置無所不在。」
為了讓外界見識到高通這次是「玩真的」!長達一個多鐘頭的演講中,華碩共同執行長許先越、宏碁董事長陳俊聖、HP執行長Enrique Lores、廣達副董梁次震等科技大咖,都應Amon之邀親臨現場,輪番為高通瞄準AI PC開發的處理器Snapdragon X系列站台。
底氣足》影響力不可小覷
能讓高通有這樣的「底氣」,關鍵在於今年底前只有高通推出支援Copilot+PC(目前對於AI PC的定義之一就是必須要內建Copilot功能)的Arm 晶片,這是因為高通是目前微軟認證唯一的WOA(Windows on Arm)裝置戰略夥伴;這也成為讓英特爾、AMD不可小覷高通在這個領域影響力的主因之一。
▲Amon指著簡報上的數據霸氣宣告,Snapdragon X系列處理器不僅是最快的,而且是最省電的。
Amon甚至自豪地說,Snapdragon X和Copilot Plus是唯一能夠釋放下一代人工智慧全部潛力的平台,不僅是應用程序,還有與電腦的互動方式。「我認為整個產業正在根據Snapdragon X和Copilot Plus的功能而改變。現在的整體趨勢是,很多公司都在說:『我也要有這個!』」
現今,PC產業正面臨一個空前的轉捩點,AI PC將徹底改變我們未來與PC互動的方式。他也舉例,未來消費者將獲得令人難以置信的個人化體驗,「因為電腦了解您,而且您使用它的次數越多,它就越了解您;而且具備更高的可靠性和增強的隱私性,因此我們也看到了許多新的可能性。」
搶市占》一口氣展示22台AI PC
為了搶攻市占率,在這次展會上,高通一口氣展示由華碩、宏碁、戴爾、惠普、聯想、微軟和三星等品牌推出的22台搭載Snapdragon X Elite和Snapdragon X Plus處理器的AI PC。Amon更指著簡報上的數據霸氣宣告,Snapdragon X系列處理器不僅是最快的,而且是最省電的,算力不僅高達45 TOPS(處理器每秒可進行的操作次數),而且每瓦性能是蘋果M3處理器的2.6倍,是英特爾Ultra 7處理器的5.4倍。
在如此強大的效能與效率之下,高通Snapdragon X系列處理器已經成為行動技術、XR和汽車領域的首選合作夥伴。透過Snapdragon X Elite平台所提供顛覆性的效能、一流的功耗效率,以及真正獨家的設備內AI功能,高通致力為AI時代帶來新一代PC。
▲Amon自豪地說,Snapdragon X和Copilot Plus是唯一能夠釋放下一代人工智慧全部潛力的平台。
在Amon的領導之下,高通實現了多元化發展,成為推動智慧運算無所不在的領導者。憑藉其技術領先地位,高通技術公司成為行動技術、XR(延展實境)和汽車領域的首選合作夥伴,致力邁向成為通訊、互連運算公司願景COMPUTEX 2024》一口氣展示22台AI PC!高通總裁Cristiano Amon:高通正轉型為通訊、互連運算公司 https://bit.ly/3yLDTax
2024年6月6日 週四 上午7:32軟硬串聯,訊連攜手美超微COMPUTEX展示AI PC地端運算解決方案 https://bit.ly/4bZVPNi
【財訊快報/記者戴海茜報導】訊連(5203)於今年度台北國際電腦展COMPUTEX 2024攜手國際高效能伺服器和儲存供應領導廠商美超微(Supermicro),共同展示AI與系統整合的解決方案。針對AI PC在地端的應用,訊連科技精選旗下最新版本的「威力導演365 (PowerDirector 365)」與美超微進行合作演示,展現其在AI應用軟體界的領導地位。訊連第一事業群總經理林昭宏表示,在AI PC熱潮中,訊連將持續通過策略性聯盟整合產業資源,實現軟硬體協同合作的最大效益。期待未來與美超微攜手推廣更多AI PC在商務市場的應用,讓廣大用戶享受到AI PC帶來的全方位解決方案。
美超微以「模組化設計(Building Block)、綠色運算(Green Computing)如Direct Liquid Cooling(直接液體冷卻,DLC)」見長。今年於COMPUTEX 2024展會上,美超微更首度發表搭載AMD Ryzen 7處理器的首款AI PC,標誌著進軍AI市場的重要一步。這款AI PC具備強大的計算能力和高效的數據處理性能,能夠應對不斷增長的AI應用需求,為企業和個人用戶提供無縫的AI體驗。
訊連期待藉由與美超微的策略合作,進一步拓展其在商務市場的版圖,並提供多款應用軟體,如AI電商與數位行銷工具(Promeo)、威力導演(PowerDirector)、相片大師(PhotoDirector)等等。期待能為企業用戶帶來兼具創意與效率的AI多媒體解決方案。
訊連於美超微展位上演示旗艦產品「威力導演365」中的人物特效(AI Body Effects)功能,提供來賓與媒體進行現場體驗。透過美超微獨家的液冷技術,能顯著降低AI運算的整體耗損。以「人物特效」功能所標榜的細緻人體動態追蹤進行特殊效果的套用為例,在影像幀數處理上也達到了卓越的成果。用戶能夠透過全新版本的威力導演365充分體驗到AI PC強大的運算能力所帶來的強大效能。
延續今年度台北國際電腦展2024 COMPUTEX的主題「AI串聯、共創未來(Connecting AI)」,與硬體合作夥伴密切合作,打造出流暢高效的AI PC體驗環境。軟硬串聯,訊連攜手美超微COMPUTEX展示AI PC地端運算解決方案 https://bit.ly/4bZVPNi
------------------------
有 CPU,也有 GPU,在過去的一年中,每個科技公司都在談論「NPU」(Neural-network Processing Unit)(神經處理單元)。如果你不知道前兩個是什麼,那麼第三個可能會讓你更加困惑,以及為什麼整個科技行業都在讚揚神經處理單元的好處。正如你猜到的那樣,這一切都歸因於圍繞 AI 進行的熱潮。然而,科技公司在解釋這些 NPU 的作用時,或為什麼消費者應該關心NPU這方面做得很糟糕。
每個人都想要分一杯 AI 的羹。Google 在本月的 I/O 開發者大會上提到「AI」一詞超過 120 次,展現了新 AI 應用和助手的無限可能,幾乎讓主持人陶醉不已。在最近的 Build 大會上,Microsoft 全力介紹了其新的基於 ARM 的 Copilot+ PC,該 PC 使用 Qualcomm Snapdragon X Elite 和 X Plus。無論哪種 CPU,兩者都將提供具有 45 TOPS(每秒萬億次運算)的 NPU。這意味著什麼?嗯,新的 PC 應該能夠支持設備上的 AI。然而,當你想到這一點時,這正是 Microsoft 和 Intel 去年年底用承諾的「AI PC」。
如果你今年購買了搭載 Intel Core Ultra 晶片的新筆記型電腦,並期待著設備上的 AI,你可能對接下來的內容有些不高興。Microsoft 說,只有 Copilot+ PC 才能使用基於 AI 的功能,例如 Recall「因為運行它們的晶片」。
然而,當知名爆料者 Albacore 聲稱他們可以在另一台基於 ARM64 的 PC 上運行 Recall 而不依賴 NPU 時,出現了一些爭議。新款筆記型電腦尚未上市,但我們需要拭目以待,看看新 AI 功能會對神經處理器造成多大壓力。
但是,如果你真的對 NPU 的發展感到好奇,以及為什麼從 Apple 到 Intel 再到小型 PC 新創公司都在談論它們,我們為你準備了一個簡單的說明。
延伸閱讀:高通公布Snapdragon X Elite NPU跑分成績:能效是M3的2.6倍、Ultra 7的5.4倍
解釋 NPU 和「TOPS」
首先,我們應該快速介紹一下普通個人電腦的運算能力。CPU 或「中央處理單元」本質上是電腦的「大腦」,處理使用者的大部分任務。GPU 或「圖形處理單元」更專門用於處理需要大量數據的任務,例如算繪 3D 物體或玩電玩遊戲。GPU 可以是 PC 內部的獨立單元,也可以整合在 CPU 本身中。
從這個意義上說,NPU 在其專門性方面更接近於 GPU,但你不會在中央或圖形處理單元之外找到單獨的神經處理器,至少目前如此。它是一種專門設計用於處理機器學習演算法特定的數學運算而設計的處理器。這些任務是「並行」處理的,這意味著它會將請求分解為更小的任務,然後同時處理它們。它經過專門設計,可以在不利用任何其他系統處理器的情況下處理神經網路的巨大需求。
衡量 NPU 速度的標準是 TOPS(Tera Operations Per Second),即「每秒一兆次操作」。目前,這是大型科技公司相互比較神經處理能力的唯一方式。這也是一種非常簡化的比較處理速度的方法。CPU 和 GPU 提供許多不同的比較點,從核心數量和類型到一般時脈速度或 teraflops,即使這樣也無法觸及涉及晶片架構的複雜性。Qualcomm 解釋說,TOPS 只是一個結合了神經處理器的速度和準確性的簡單數學方程式。
也許有一天,我們會像 CPU 或 GPU 一樣詳細地審視 NPU,但那可能只有在我們度過當前的 AI 熱潮之後才會出現。即便如此,所有這些處理器的劃分都不是一成不變的。還有一種稱為 GPNPU 的概念,它基本上是 GPU 和 NPU 能力的結合。很快,我們需要將小型 AI 能力個人電腦與能夠處理數百甚至數千 TOPS 的大型個人電腦區分開來。
延伸閱讀:微軟推出專為 Copilot+ PC NPU 設計的 33 億參數模型 Phi-Silica
NPU 多年來一直存在於手機和 PC 上
早在大多數人或公司關心之前,手機就已經在使用 NPU 了。Google 早在 Pixel 2 時就談到了 NPU 和 AI 功能。華為和華碩在 2017 年的 Mate 10 和 2018 年的 Zenphone 5 等手機上首次推出了 NPU。當時,這兩家公司試圖推廣這些設備的 AI 能力,儘管客戶和評論對其功能的懷疑態度比今天要大得多。
事實上,今天的 NPU 比六、八年前要強大得多,但如果你沒有注意的話,大多數這些設備的神經處理能力可能已經被你忽略了。
早在 2023 年之前,電腦晶片就已經配備了神經處理器。例如,蘋果的 M 系列 CPU(該公司專有的基於 ARC 的晶片)早在 2020 年就已經支援神經功能。M1 晶片擁有 11 TOPS,M2 和 M3 分別擁有 15.8 和 19 TOPS。直到配備 M4 晶片的新 iPad Pro 2024,蘋果才決定誇耀其最新神經引擎的 38 TOPS 速度。那麼,哪些 iPad Pro AI 應用程式真正利用了這項新功能呢?說實話,並不多。也許我們會在之後的 WWDC 2024 上看到更多,但我們拭目以待。
當前對 NPU 的癡迷部分是硬體,部分是炒作
NPU 背後的想法是,是它應該能夠減輕 CPU 或 GPU 運行設備上 AI 的負擔,允許使用者運行 AI 程式,無論是 AI 藝術生成器還是聊天機器人,而不會降低 PC 的速度。問題是,我們現在都在找那個能夠利用增強的 AI 功能的真正 AI 程式。
在過去的一年中,從各大晶片製造商了解到的事是,硬體製造商覺得,他們第一次在軟體需求上超越了軟體需求。很長一段時間以來,情況正好相反。軟體製造商會突破消費類硬體的極限,迫使晶片製造商迎頭趕上。
但自 2023 年以來,我們只看到了一些能夠在設備上運行的邊緣 AI 應用程式。Qualcomm 或 Intel 晶片 AI 功能的大多數展示通常都涉及運行 Zoom 背景模糊功能。最近,我們看到公司在 Audacity 等現有應用程式中或在 OBS Studio 上使用即時字幕,使用 AI 音樂生成器模型 Riffusion 對其 NPU 進行基準測試。當然,你可以找到一些在設備上運行聊天機器人的應用程式,但功能較弱、細微差別較少的 LLM 並不像能讓所有人跑去購買最新的智慧型手機或「AI PC」的殺手級應用程式。
相反,我們只能在 Pixel 手機上使用 Gemini Nano 等相對簡單的應用程式,例如文字和音訊摘要。Google最小的 AI 版本將出現在 Pixel 8 和 Pixel 8a 上。三星曾經專屬於 Galaxy S24 的 AI 功能已經下放到較舊的手機,並且應該很快就會應用於該公司的可穿戴設備。我們還沒有對舊設備上這些 AI 功能的速度進行基準測試,但它確實表明,早在 2021 年的舊設備就已經擁有足夠的神經處理能力。NPU是AI 革命的核心引擎,TOPS 是衡量 NPU 速度的標準 | T客邦 https://bit.ly/3Rg7Nud
--------------------
Intel 新一代 AI PC 微架構 Lunar Lake 以 4P+4E, NPU 2, Xe2 達到 120 TOPS AI 運算效能
sinchen SINCHEN · 2024-06-04
Intel 搶在 COMPUTEX 大展之前舉辦 Tech Tour Taiwan 揭曉今年 Client 產品規劃,新一代 AI PC 行動處理器 Lunar Lake 將在 Q3 登場、桌上型處理器更新 Arrow Lake 則是預計 Q4 推出。並鉅細靡遺的解說 Lunar Lake 新架構設計與技術細節。
Lunar Lake 有著嶄新的 x86 架構處理器的電源效率,降低將近 40% 的 SoC 電源,並且在核心架構改良的同時只需原本一半的功耗即可達成相同的單執行緒效能,並且擴大 1.5x 倍的繪圖核心區域,這也讓 Lunar Lake 有著全平台 120 TOPS 的 AI 運算效能。
Lunar Lake 基於 3D Foveros 多晶片封裝技術,將運算層、平台 I/O 層藉由 Foveros 與 Filler 層一同封裝在處理器基版上,並採用 Memory On Package 封裝,配置 32GB 記憶體。
Lunar Lake 的 32GB w/ 2 Ranks LPDDR5X 記憶體顆粒與處理器一同封裝在基版上,每晶片可有著 8.5GT/s 的傳輸頻寬、支援 16b x 4 通道,能夠降低 40% PHY 電源並節省 250mm2 的電路版面積。
Lunark Lake 微架構的核心目標是,提升核心的每瓦效能、更強悍的繪圖引擎、提升 AI 運算吞吐量與行動平台最重要的電源效率。
Lunark Lake 依然採用 Hybrid 核心架構設計,能帶來最好的效能與最大化效率,藉由 4 個 E-core 效率叢集與 4 個 P-core 效能叢集,組合成 8 核心混合設計。
P-core 效能叢集中每個核心有著 2.5MB L2 快取,以及 4 個核心共享的 12MB L3 快取,能帶來更出色的單執行緒效能,並優化核心 PPA 設計。
E-core 效率叢集則是 Intel 新設計的低功耗孤島(low power island),這邊孤島的意思是指獨立供電回路設計。4 個 E-core 共享 4MB L2 快取,能比上一代有著 2x 的省電表現,並比上一代提升 2x 的 Vector 與 AI 輸出效能。
新一代 Xe2 GPU 架構,具備 8 組新一代 Xe 核心、8 個光線追蹤單元、XMX AI 引擎與 8MB 快取。能提供 67 GPU TOPS 的算力、即時光線追蹤、XeSS 畫質提升、軟體堆疊等功能,相比上一代 Meteor Lake 能帶來 50% 的繪圖效能提升。
並有著新一代編碼設計除支援 AV1 編解碼之外,也支援最新的 VVC 解碼功能;3 個顯示輸出 eDP 1.5、DP 與 HDMI 2.1;內建的 IPU 可提供 temporal noise reduction、multi-frame 與 dual exposure staggered hdr 的影像強化功能。
Lunar Lake 的 NPU 神經網路處理器具備 6 個 Neural Compute 引擎、12 個強化 SHAVE DSP 數位訊號處理器與 9MB 快取,能夠提供 48 TOPS 的 AI 輔助與創作效能。
Lunar Lake 整平台有著 120 TOPS 的總算力,NPU 48 TOPS 能夠處理密集向量與矩陣運算,提供 AI 輔助與創作等功能;GPU 67 TOPS 運算能力藉由 XMX 與 DP4a 提供遊戲與創作 AI 所需的效能;至於 CPU 也可提供 5 TOPS 運算能力藉由 VNNI 與 AVX 指令驅動輕度 AI 工作。
稍微整理下 Lunar Lake 的核心架構層,採用新設計的 Lion Cove P-core、Skymont E-core、NPU 4 架構與 Xe2 GPU 架構,並整合新設計的編解碼引擎、顯示引擎與整合處理單元(IPU)。
Lunar Lake 在核心晶片中加入 8MB Memory side 快取,可以降低 DRAM 的傳輸次數並節省電源,藉由快取機制讓核心與 DRAM 間的延遲可降低並提升傳輸頻寬。
Lunar Lake 採用 4 個 PMIC 供電設計,可提供更多的供電路徑、動態電壓 ID 與更多的監控功能。針對 SoC 的供電使用優化達到最佳的效能效率。
針對電源管理則讓 Thread Director 更注重在效率的分配上,並依據不同赴載最佳電源平衡模式。
採用新的 PMIC 供電設計、Memory Side 快取、Thread Director 與新設計的 E-core 叢集下,Lunar Lake 比起上一代的 SoC 電源能夠降低 40%。
處理器的平台控制層則提供內建安全與新一代連接技術,像是 Intel Partner Security 引擎、Intel Silicon Security 引擎與 Converged Security 和 Manageability 引擎。
並整合 Wi-Fi 7、Bluetooth 5.4 與 1GbE MAC 連線技術;SoC 也提供 4x 條 PCIe 5.0 與 4x 條 PCIe 4.0 的擴充通道、3 個整合的 Thunderbolt 4、2 個 USB 3.0 與 6 個 USB 2.0 等連接埠。
至於 Lunar Lake 能夠結合 E-core、P-core、NPU 與 GPU 混合核心,主要原因在於採用 Scalable fabric gen 2 能夠提供跨架構的 IP 連接,採用統一的物理可擴充協定,並將 fabric access point 模組化的設計。
核心層通過 Scalable fabric gen 2 與 D2D 直接與平台控制層對接,能夠無縫的銜接運算節點、晶片層,讓核心能有著更好的擴展性與效率。
綜觀整個混合核心除了通過 Scalable fabric gen 2 連接外,也藉由 Home Agent 統籌整個層級的一致性(Hierarchical Coherency),包括 Memory Side 快取、每個核心叢集中的 Coherency Agent 包括平台控制層的 IO Coherency。
稍微整理下 Lunar Lake 採用新設計的 Lion Cove P-core、Skymont E-core 的 4P + 4E 混合核心設計,並藉助 Foveros 封裝技術整合運算層、平台控制層與 32GB 記憶體顆粒至單晶片當中,並有著最大設計的 NPU、全新設計的 Xe2 GPU 與編碼引擎、Memory side 快取、針對效率強化的 Thread Director 等設計,達到整平台 120 TOPS 的 AI 運算能力。
搭載新一代 Intel Lunar Lake 的輕薄筆電,很可能在今年 Q3 底、9 月左右的時間登場,但實際筆電發表、預購到消費者手中的時間則留待筆電製造商揭曉。
Intel 新一代 AI PC 微架構 Lunar Lake 以 4P+4E, NPU 2, Xe2 達到 120 TOPS AI 運算效能 | XFastest News https://bit.ly/3KvDpYN
------------------
最高提供 50 AI TOPS 表現,AMD 發表代號 Strix Point 的 Ryzen AI 300 系列處理器 - BenchLife.info https://bit.ly/3VvZ5dQ
新命名 AMD Ryzen AI 300 系列處理器 NPU 50 TOPS 運算效能 7 月推出
sinchen SINCHEN · 2024-06-03
新命名 AMD Ryzen AI 300 系列處理器 NPU 50 TOPS 運算效能 7 月推出 | XFastest News https://bit.ly/3VvLFP1
AMD 改變行動處理器命名以 Ryzen AI 為品牌名,新推出 AMD Ryzen AI 300 系列處理器,採用 Zen 5 核心架構、RDNA 3.5 繪圖核心架構與 XDNA 2 神經網路核心架構,並預計在 7 月由各大筆電 OEM 推出新一代 Copilot+ PC。
AMD 將推出 Ryzen AI 9 HX 370 與 Ryzen AI 9 365 兩款處理器。Ryzen AI 9 HX 370 具備 4 個 Zen 5 + 8 個 Zen 5c 共 12 個處理器核心,搭配 Radeon 890M 16 CU 繪圖晶片與 50 TOPS NPU。至於 Ryzen AI 9 365 則是 4 個 Zen 5 + 6 個 Zen 5c 共 10 個處理器核心,搭配 Radeon 880M 12 CU 繪圖晶片與同樣的 50 TOPS NPU。
AMD XDNA 2 架構的新 NPU 能提供 50 TOPS 的 AI 算力,相比 Qualcomm、Intel、Apple M4 等處理器,有著目前最高的 NPU 運算效能。而且在 Llama2 7B 大型語言模型 LLM 測試反應速度,能超過上一代 Ryzen 8940HS 與對手 Core Ultra 9 185H 的效能。
Ryzen AI 9 HX 370 對比 Qualcomm X Elite 在反應速度有著 5% 領先、生產力 10%、多核心運算 30% 與繪圖效能達到 60% 性能領先。
Ryzen AI 9 HX 370 對比 Apple M3 一樣可在生產力測試達到 9% 提升、影像編碼 11%、多核心運算 70%、3D 渲染達到 98% 的性能領先。
至於 Ryzen AI 9 HX 370 對比 Core Ultra 9 185H 一樣可在生產力測試達到 4% 提升、影像編碼 40%、多核心運算 47%、3D 渲染達到 73% 的性能領先。此外在內顯遊戲效能上亦有著不小的效能領先。
AMD 新一代 Ryzen AI 300 系列處理器預計在 7 月由各大筆電 OEM 推出新一代 Copilot+ PC,但實際筆電上市時間還是要等待 OEM 的規劃。
------------------------------
最高提供 50 AI TOPS 表現,AMD 發表代號 Strix Point 的 Ryzen AI 300 系列處理器
Tweet Share Share
By Chris.L on 2024-06-03 in 未分類
改了命名原則,且目前的數字讓人有點期待。
前面提到除了 Granite Rapids 的 Ryzen 9000 系列處理器,AI PC 部分則有 Strix Point 的 Ryzen AI 300 系列處理器;原先 Strix Point 傳出的命名應該是 Ryzen AI 100 系列,但在曝光之後,AMD 在命名原則方面做了些調整。
全新的 Ryzen AI 300 系列處理器整合 Zen 5 處理器架構、XDNA 2 NPU 與 RDNA 3.5 GPU 架構。
既然作為 AI PC 的一環,當然要先提提 AMD Ryzen AI 300 系列處理器的 NPU 運算效能,但我們先回顧 Ryzen 7040 與 Ryzen 8040 系列處理器的 NPU 表現。
AMD Ryzen 7040 系列處理器採用 XDNA 架構,NPU 部分為 10 TOPS,至於同樣採用 XDNA 架構的 Ryzen 8040 系列處理器則提升至 16 TOPS。
Zen 5 處理器架構與 XDNA 2 架構的 Ryzen AI 300 系列則是提升至 50 TOPS,能夠滿足 Microsoft Copilot+ PC 至少 40 TOPS 的需求。Microsoft Copilot+PC 有多個基本的特色或功能,分別是 Recall、Live Captions、Real Time Translation 與 Co-creator。
談完 NPU 部分,跟著我們看看 CPU 與 GPU。
現階段 Ryzen AI 300 系列擁有 2 款產品,分別是 12C24T 的 Ryzen AI 9 HX 370 與 10C20T 的 Ryzen AI 9 365,分別搭載 Radeon 890M 和 Radeon 880M。
命名原則部分可以做以下解讀:
Brand – AMD Ryzen AI;
Brand Level – 9 HX;
Series and SKU # – 370;
Acer 與 ASUS 外,我們還能見到 Dell、HP、Lenovo 與 MSI 等品牌推出採用 Ryzen AI 300 系列處理器的 AI PC。
最高提供 50 AI TOPS 表現,AMD 發表代號 Strix Point 的 Ryzen AI 300 系列處理器 - BenchLife.info https://bit.ly/3VvZ5dQ
----------------------
NVIDIA推GeForce RTX AI電腦,算力高達700 TOPS
這樣才有 AI 生產力
2024-06-02
NVIDIA推GeForce RTX AI電腦,算力高達700 TOPS | 4Gamers https://bit.ly/4aSi46K
NVIDIA GeForce RTX AI Laptops
NVIDIA 於 COMPUTEX 2024 推出一系列 GeForce RTX AI 筆電,透過 GeForce RTX GPU 帶來高達 700 TOPS 的 AI 算力。
雖說 Intel、AMD、Qualcomm 紛紛在 CPU 內加入 NPU 並強調其 AI 算力,但截至目前為止,這些 NPU 的算力仍停留在 50 TOPS 以下。NVIDIA 則認為,透過獨立 GeForce RTX GPU 內建 Tensor Core 所擁有的強大 AI 算力,才算具備足夠的生產力的 AI 電腦。
NVIDIA GeForce RTX GPU AI Performance
筆電 GPU 的 AI 性能
透過 NVIDIA 公布的資料可以看到,RTX 40 系列最入門的 GeForce RTX 4050 筆電 GPU 已擁有 194 TOPS 的 AI 算力,筆電領域內當前最高階的 GeForce RTX 4090 筆電 GPU 則具備 686 TOPS 的 AI 算力。
桌上型電腦方面,RTX 40 系列顯卡最入門的 GeForce RTX 4060 擁有 262 TOPS 的 AI 算力,而中高階的 GeForce RTX 4070 Ti 顯卡的 706 TOPS AI 算力便可贏過 GeForce RTX 4090 筆電 GPU,最高階的 GeForce RTX 4090 更擁有高達 1321 TOPS AI 算力。
再結合 NVIDIA 稍早公開的實機性能,使用 Apple M3 Max 處理器的 MacBook Pro 處理 Stable Diffusion 圖像生成需要花費近 3 分鐘,但使用 GeForce RTX 4090 筆電 GPU 的機台只需要 8 秒鐘即可完成,顯見其 AI 生產力。NVIDIA推GeForce RTX AI電腦,算力高達700 TOPS | 4Gamers https://bit.ly/4aSi46K
Metaverse | 元宇宙 - GIGABYTE 技嘉科技
AMD和Intel兩家公司的發展史其實就是整個CPU發展的歷史。 Intel成立於1968年,一年後AMD成立。兩家公司的創辦人皆出自仙童半導體,Intel的創辦人諾伊斯和摩爾分別是積體電路的發明人和「摩爾定律」的提出者,而AMD創辦人桑德斯是仙童半導體的銷售員 https://bit.ly/3yPQ0DA
微處理器 40年,Intel 重要產品歷史年表+圖片展 | T客邦
Silirium.ru :: Intel Microprocessors
4004是美國英特爾公司 (Intel) 推出的第1款商用微處理器,也是全球第一款商用微處理器;1971年11月15日發布。
4004處理器的尺寸為3mm×4mm,外層有16隻針腳,內有2,300個電晶體,採用五層設計、10微米製程。
4004最初的主頻是108KHz,最高時脈有740KHz,能執行4位元運算,支援8位元指令集及12位元位址集,使用10.8微秒和21.6微秒運行周期。當使用10.8微秒運行周期時,可以每秒運算9萬次,成本低於100美元。4004處理器的性能與早期電子計算機ENIAC相若。ENIAC是在1946年推出,機器體積龐大,需占用一個房間。ENIAC擁有18000個真空管。
該款處理器原先是為一家名為Busicom的日本公司而設計,用來生產電子計算器。
Intel 4004 - 維基百科,自由的百科全書 https://bit.ly/4bNiSLs
Silirium.ru :: Intel Microprocessors
AMD成立已有55年市值已超英特爾1000億美元- AMD - cnBeta.COM
AMD、Intel處理器發展藍圖 2024年3nm製程Zen 6對決Cove 6 | XFastest News
AMD 50:半世紀的 44 項重點回顧 - BenchLife.info
十年風光、十年潛沉,AMD 的二次逆襲之路 | TechNews 科技新報
硬科技:做為x86伺服器象徵的Intel Xeon處理器 開創期(1998-2001) (158167) - Cool3c
硬科技:做為x86伺服器象徵的Intel Xeon處理器 開創期(1998-2001) (158167) - Cool3c
科普:intel CPU 微架構的發展史_intel微處理器發展的歷史-CSDN博客
科普:intel CPU 微架構的發展史_intel微處理器發展的歷史-CSDN博客
美國一名研究AI的教授指出,未來100年內人類因AI滅絕的機率高達99.9%。(示意圖/翻攝自Pixabay)
人工智慧(AI)蓬勃發展,美國一名研究AI的教授表示,未來100年內人類因為AI滅絕的機率高達99.9%,他更指出迄今研究出來的AI模型,「沒有任何一種是完全安全的」。但也有其他學者抱持溫和態度,
據《商業內幕》等外媒報導,美國易斯維爾大學一名電腦科學專業的教授揚波爾斯基(Roman Yampolskiy)近日在Podcast節目中指出,目前沒有一種AI是完全安全的,且AI曾經越獄(jailbroken)過,「我不認為現今存在一個單一的大型語言模型,是可以成功防止它做開發者不想讓它做的事情」。
揚波爾斯基透露,人類能否在100年內創造出複雜且零出錯(with zero bugs)的軟體,是人類是否滅亡的關鍵,但他認為人類因AI滅絕的機率高達99.9%。他認為若是要控制AI,就需要一種永久的安全機制,但這實際上很難做到,因為AI會通過自我修改,以及在與使用者的互動中學習,不斷演化。
揚波爾斯基更預言了人類的三種未來,一是人類被AI消滅;二是人類還活著,但過得生不如死;三是AI代替人類完成所有工作,導致人們陷入空虛。節目主持人透露,對於AI的發展是否會危害人類,其他AI工程師則認為,AI消滅人類的可能性在1%至20%之間
100年內發生世界末日?學者斷言「人類將遭AI滅絕」:機率達99.9% | 科技 | 三立新聞網 SETN.COM https://bit.ly/3RbrFP6
AI 手機是什麼?盤點AI手機功能,3款熱門AI手機大評比 https://bit.ly/3RgwiqO
AI手機中,NPU通常與CPU和GPU一起工作,形成「CPU+GPU+NPU」的多核心架構,提供更高效的運算能力和能源效率,這種設計使得AI手機能夠更有效地執行複雜的AI功能和任務
【財訊快報/陳孟朔】有AI妖股之稱的美超微(美股代碼SMCI)推出機櫃式隨插即用液冷人工智慧超級集群,應用於Nvidia Blackwell和HGX H100/H200。此外,美超微電腦發布支援搭載Intel Xeon 6700系列處理器(配備E-cores)的X14伺服器產品組合,並將在未來為Intel Xeon 6900系列處理器(配備P-cores)提供支援。美超微股繼上日小跌0.13%後,週三急漲30.91美元或4.01%至802.52美元,今年來漲幅擴大到182.32%,市值來到469.93億美元
美超微推機櫃式隨插即用液冷AI超級集群,股價週三急彈4% https://bit.ly/4bKYVVn
知名AI晶片大廠輝達(Nvidia),週三股價持續飆升,漲幅高達5.16%,每股升破1200美元,市值突破3兆美元大關,超越蘋果成為全球第2大最有價值的公司,僅次於微軟。黃仁勳的身價也上升至1074億美元、約新台幣約3.47兆,成為名符其實「行走的三兆男」。
綜合《CNBC》、《路透社》報導,輝達的股票「一拆十」策略將於7日生效,此舉可能增加了對個別投資者的吸引力。自去年以來,輝達的股價一直在大幅上漲,5月公布第一季財報後,股價已上漲超過24% ,資料中心的AI晶片市占率高達80%。
週三收盤時,輝達的市值為3.019兆美元,蘋果為2.99兆美元,而微軟則仍是最有價值的上市公司,市值為3.15兆美元。報導指出,輝達市值飆升至超過蘋果,標誌著矽谷的轉變。
蘋果是第一家市值達到1兆美元和2兆美元的公司,長期以來一直保有美國最有價值公司的稱號,但已在今年稍早被微軟超越,現在又被輝達超越。
報導也提到,輝達在華爾街掀起人工智慧熱潮之際,蘋果卻因iPhone需求疲軟,以及與中國的激烈競爭而苦苦掙扎,今年股價僅上漲約5%,銷售成長在近幾個月陷入停滯。
Longbow Asset Management 執行長朵拉海德(Jake Dollarhide)表示,接下來,輝達超越微軟可能也是意料之中,大量散戶的資金正湧入他們認為前景看好的市場。
輝達市值升破3兆美元 超越蘋果、僅次微軟 https://bit.ly/4aSVU4j
-----------------------------------
輝達(NVIDIA)創辦人暨執行長黃仁勳昨(2)天來台演講,點名多家台灣合作夥伴,引發資本市場高度關注。台股今(3)日開盤應聲飆漲至21546點,其中10檔被點名的「AI概念股」更是一開盤就亮出漲停,成為投資人矚目的焦點。
台股今天開盤飆至21546點,「AI概念股」10檔漲停。(圖/胡瑞麒攝)
黃仁勳概念股強勢崛起!這10檔攻漲停 最甜價28.35元 https://bit.ly/3yNBz2R
黃仁勳在演講投影片中,秀出與台灣廠商合作的夥伴名單,其中包括立端、宸曜、廣運、益登、弘憶股、慧友、迎廣、新漢、德律、曜越等10檔個股,開盤後即亮燈漲停,可見市場對「黃仁勳概念股」的高度期待。此外,研揚以182元開出後一度飆漲至189.5元,漲幅逾9.54%。
值得注意的是,黃仁勳在談到機器人應用時,不忘與現場分享輝達與台灣廠商的合作成果。他特別點名台達電、巨大、緯創、和碩等台廠已優先參與,並介紹輝達與鴻海合作的虛擬工廠,運用了NVIDIA Blackwell HGX系統等尖端技術。在這波「黃仁勳概念股」熱潮中,有多達16家上市櫃公司股價仍未達百元,其中又以慧友的28.35元最低,漲停板更增添了它的投資吸引力。
黃仁勳此番來台演講,再次凸顯了台灣在全球科技供應鏈中的關鍵地位。這些與輝達合作的台廠,在AI浪潮的帶動下,勢必將迎來新一波的成長契機。而黃仁勳的點名,無疑也為這些「AI概念股」注入了一劑強心針,讓它們在資本市場上備受矚目。
黃仁勳概念股強勢崛起!這10檔攻漲停 最甜價28.35元 https://bit.ly/3yNBz2R
------------------
日月光半導體作為美超微在台灣的首個水冷散熱技術合作夥伴,在中華系統整合的佈建下,將新一代美超微水冷AI伺服器及節能技術導入日月光資料中心,運用AI在產品生產、工程研發及營運上為智慧製造帶來助益,將有效縮短研發時程、維持品質穩定及精準預測訂單需求,有效降低日月光資料中心至少20%以上能耗,達成2030淨零目標,提供更好的客戶服務與達成節能減碳成果。美超微攜手日月光與中華系統整合 在高雄打造全台首座水冷資料中心 https://bit.ly/4c5C3Qi
迎接AI時代,算力高需要更高效能的散熱技術,迎接「液冷」元年,散熱解決處理商推出「水冷散熱系統」,號稱只需要兩台就可以負荷整個電視台的用電量,比起一般氣冷節能省碳超過60%,還有業者將冷板模組搭配機櫃CDU,能提高液冷機櫃的節能表現,奇鋐、台達電等「液冷國家隊」也期盼跟著受惠。
沒有一般機器,氣冷處理的吵雜聲。
雙手靠近,也不會被機器高溫熱到,吹出來的是涼風,這台浸沒冷卻系統,熱量全部由液體帶走容易回收,沒有風扇系统功耗更低,PUE能源效力達到1.04%,預計在今年Q4蓬勃發展,在明年迎來爆發期。
科技公司總經理連春源:「目前部署的大部分都是水冷,浸沒的以半導體的,通常會下的功夫比較大。」
業者:「主要客戶鎖定半導體業業者明年爆發期。」
AI產業快速發展,算力高,需要更有效率的散熱技術,液冷成為科技業新寵兒,2024堪稱是液冷元年。
另外這台水冷散熱,業者評估大約只需要兩台,就能負荷整個電視台的用電量,PUE能源效力1.3%,比起一般氣冷,節能省碳超過60%,不僅力致科技,台達電也要來搶商機。
記者余品潔:「這台專為新一代GPU、CPU設計的液冷冷板模組,搭配台達電機櫃CDU,可以調節及控制冷卻劑的流量,以維持系統所需的溫度和流速,提高液冷機櫃的節能表現。」
散熱市場布局多年,從CDU、分歧管、水冷板到冰水主機,液冷散熱產品預計今年下半年開始量產,並在明年大量出貨。
業界預計2025年起,液冷及相關機構件產品,在資料中心的滲透率將大幅起飛,產值破百億美元。
分歧管水冷版供應商,有台達、雙鴻、奇鋐,CDU裝置則由吉茂、廣運吃下,機櫃台廠有迎廣、勤誠,迎接液冷商機爆發,將成明年新動能,有望帶動營收和毛利率再衝高。液冷產值破百億美元 業者:Q4量產、明年爆發 https://bit.ly/3Vv6fyO
----------------
三大晶片巨頭,輝達超微英特爾,新款AI晶片比一比,輝達記憶體容量最大,但傳最高要價約台幣226萬元,而超微和英特爾,雖然記憶體容量較小,價格卻遠低於輝達。工研院產科國際所研究總監楊瑞臨:「超微在雲端的訓練晶片上,看起來它有一些,不管是在算力或者在速度,或者是在頻寬等等,基本上看起來,似乎有挑戰輝達的味道。」目前輝達在AI晶片市場市占率高達95%,不過各方研發不間斷,隨時準備挑戰王位。
算力即是國力,他也特別向卓榮泰說明,現在全世界正展開AI運算力的軍備競賽,AI將帶動電動車與先進晶圓製造,這樣的能源使用是值得的,還說AI電力的多寡是象徵國家是否先進的指標。液冷產值破百億美元 業者:Q4量產、明年爆發 https://bit.ly/3Vv6fyO
--------
自2018年中美科技緊張局勢升溫以來,中國加大了晶片自給自足的訴求力道,為該產業注入了大量資金及補貼。然而,儘管中國擁有約44家晶片代工廠,但目前只有中芯國際(SMIC)有能力量產先進晶片,主要是為了華為保留的。2位知情人士還說,總部位於上海的MetaX開發了一款名為C280的降級產品,而該公司最先進的GPU C500在中國的庫存已於今年稍早售罄
----------
AMD預告,新晶片Zen 5、Ryzen 9-9950X將在7月上市,更邀請供應鏈夥伴擔任嘉賓,包括華碩董座施崇棠、微軟、HP、聯想等,而施崇棠也在會場上大秀和AMD合作的筆電產品。AI PC產業將由AI重塑結構,例如AI個人助理及Copilot等。此外,第3代Ryzen AI處理器,包括合作夥伴華碩、惠普(HP)、聯想、宏碁、微星等,都是首波搭載第三代Ryzen AI處理器 AMD蘇姿丰秀新晶片!邀華碩董施崇棠同台 瞄準AI PC市場 https://bit.ly/3RkqsVx
----------------
高容量、低延遲、低功耗和高效傳輸 為何輝達和超微都在搶HBM? https://bit.ly/3Ky6gvE
HBM解決傳統DRAM記憶體限制訊息流通的問題, 透過同一封裝內晶片的矽中介質和SoC集成在一起, 克服數據I/O封裝管腳限制的最大數量,突破DDR寬帶限制的問題, 讓AI離不開HBM。SK海力士目前市占率超過五成,有主宰HBM價格的能力。
HBM解決傳統DRAM記憶體限制訊息流通的問題, 透過同一封裝內晶片的矽中介質和SoC集成在一起, 克服數據I/O封裝管腳限制的最大數量,突破DDR寬帶限制的問題, 讓AI離不開HBM。SK海力士目前市占率超過五成,有主宰HBM價格的能力。
© 先探雜誌
過去記憶體常常擺脫不了景氣循環的宿命,隨著科技進入AI世代,伴隨著對高頻寬記憶體(HBM)的需求,讓記憶體有新的轉機。Nvidia執行長黃仁勳曾經表示,若GPU要順利推動ChatGTP等最先進生成式AI,要最大限度地發揮GPU性能,必須有HBM。今年Nvidia搭配AI處理器平台的HBM的主流規格是HBM3和HBM3e,下一世代GPU平台Rubin(二○二六年推出)就要採用HBM4,屆時誰能搶到較多的市占率,將有機會主宰HBM領導角色。
HBM產能供不應求
黃仁勳對HBM曾經有過這樣的評論,就是買越多、省越多!難道HBM價格是比傳統記憶體DRAM便宜嗎?當然不是這樣!HBM作為先進的記憶體,它的技術比傳統DRAM技術困難很多,由於廠商目前在HBM的良率還不是很高(僅約五○~六○%),工序複雜,價格當然不會便宜。在GPU跨入AI世代時,只有DDR5/HBM才有辦法在AI高倍速(HCP)的環境下運作,其他規格的記憶體都不行,加上全世界只有SK海力士、美光科技和三星電子等的記憶體大廠製程有能力做出HBM,以至於產能有限,市場供不應求,HBM目前是賣方喊價的市場。
隨著市場對HBM需求越來越大,SK海力士、美光科技和三星電子等三大記憶體製造商未來的資本支出會大幅用來生產HBM,並且會逐步把之前生產較低階DRAM生產線,逐步改為HBM生產線。根據集邦科技的統計,去年底HBM占整體DRAM產能約八%,市場規模四三.五六億美元、年成長率達一一○%。預估到今年底,HBM在DRAM的比重將有機會達到二○%、一六九.一億美元的產值。HBM的生產週期比DDR5更長,從投片到產出與封裝完成需要兩個季度以上,生產周期(包含TSV)會比DD5多出一.五~二個月以上不等,對HBM買家來說,都要及早規劃預定,否則有錢也買不到。目前這三大廠針對今年的產能都已經預訂一空,SK海力士日前宣布明年的產能都被預訂一空,美光科技明年的產能也差不多被訂完。
不過,最近傳出三星電子沒有通過Nvidia的認證,主要是因為過熱和功耗有問題。據了解,從去年起三星電子一直嘗試通過Nvidia的第四代HBM3和第五代HBM3e的認證,但到日前為止,三星電子八層與十二層堆疊的HBM3與HBM3e都未通過認證。三星電子沒通過Nvidia就無法打入Nvidia的供應鏈,目前也只能供應超微和其他CSP客戶,這會讓三星電子在未來的HBM市場被弱化,畢竟打不進Nvidia供應鏈就等於沒打進主流市場。這個情況,可能會讓SK海力士會在HBM的主宰力更大,價格會更硬,這也是Nvidia和超微不樂見的現象。去年底HBM市占率中,SK海力士擁有高達五成的市占率、三星電子約四成、美光科技僅一成。美光科技最大的問題就是產能不足,未來要觀察美光科技在一β製程已經開出來後,能否提高HBM產能,來搶占三星電子空出來的市占率。
黃仁勳四日在COMPUTEX會場中表示,SK海力士和美光科技已是Nvidia的HBM供應鏈,而三星電子還在努力中。言下之意,Nvidia仍期待三星電子能通過認證,成為HBM供應鏈的一環。
解決傳統DRAM許多問題
HCP是進入AI領域的必經過程,且在短期間內要處理最多的大數據資料。HBM會成為AI的必需品,在技術上HBM解決了傳統DRAM遇到的內存高牆(Memory Wall)問題,這問題限制數據無法流通,是傳統DRAM無法用在AI用途的原因。HBM利用獨特的矽穿孔(TSV)技術,讓訊息透過矽中介層能緊湊地讓數據連結GPU。如此能節省數據傳輸的時間延遲與耗能問題。HBM是以數個DDR堆疊方式形成,從四層、八層到十二層不等,形成大容量和高寬帶的DDR組合陣列。採用堆疊方式最高能節省九四%的晶片面積,HBM透過同一封裝內的矽中介層與SoC集成在一起,能夠克服數據I/O封裝管腳限制的最大數量,進而突破內存寬帶的限制。綜合來看,高寬帶、低延遲、低功耗以及高效傳輸等特性,讓HBM成為AI運作過中記憶體的首選。
隨著AI算力提升,對周邊設備規格的要求也越來越嚴謹。根據Nvidia官網顯示,以A100當時搭配HBM2e的效能為基礎,二三年的H100搭配HBM3時,運作效能比A100提高十一倍,而H200搭配HBM3e的運作效能更比A100提高十八倍,即將在今年下半年推出的B100搭配HBM3e的效能,又比H200的效能至少再高出一倍。
HBM世代大幅提升效能
二二年Nvidia的Hopper架構平台搭載的H100、H200 GPU普遍採用HBM2e、HBM3和HBM3e,今年要推出的Blackwell平台搭載GB100、GB200 GPU採用HBM3e,Grace Hopper架構平台至少搭載HBM3e。超微去年推出的CDNA3架構搭載MI300A、MI300X GPU使用HBM3,今年要推出的E架構、搭載MI350 GPU將採用HBM3e。因此,HBM3和HBM3e是目前AI平台普遍使用的規格。
英特爾Gaudi 2平台、谷歌的TPU平台、亞馬遜自己研發的Inferentia 2和Trainium平台、微軟Maia 100平台目前均使用HBM2e。僅亞馬遜Trainium 2平台使用HBM3。Meta平台自行研發的MTIA 3可能使用到HBM3e。上述AI平台搭載的HBM等級還沒有達到Nvidia和超微的水準。谷歌、亞馬遜、微軟和Meta平台都是自用為主,這些CSP業者也向Nvidia和超微採購高階的AI架構平台,彌補自己研發的不足。
HBM規格這幾年翻新速度很快,從Nvidia在一七年推出的Tesla V100當時搭載HBM2,目前已經演化到GB200的HBM3e,HBM的寬帶與容量成長數倍之多。Nvidia指出,以同一個Hopper架構為例,H200 SXM搭載HBM3e比H100 SXM搭載HBM2e,在寬帶速率上提升四三%,容量上則擴增七六%,而對比落後兩個世代搭載HBM2e的A100 SXM相比,寬帶速率更是提高了一四一%,這都是HBM性能經過世代交替後所帶來的優勢。不論是Nvidia還是超微今、明年要推出的AI架構平台,將會朝向HBM3e,將帶動AI單晶片搭載HBM的容量大幅提升。集邦科技預估,今年HBM需求位元成長率將近二○○%,明年可望再翻倍。
各家將決戰HBM4
HBM下個世代將轉向HBM4,挑戰更高製程難度。黃仁勳在二日晚間的演講中提到Nvidia新一代Rubin架構平台將在二六年量產,預計要搭載HBM4,Rubin將採用台積電三奈米製程,HBM4屆時將逐漸成為主流。HBM發展到HBM3e時,SK海力士都採自家製程,最新的HBM3e採用與美光科技同等級的一β製程。不過,進入HBM4後,SK海力士已經與台積電簽訂備忘錄,未來將採用台積電CoWoS的先進封裝技術,期待能將附加功能封裝到有限的單晶片空間內,以滿足客戶對性能和功效的要求。美光科技早就與台積電有合作關係,也是台積電的長期客戶,美光使用EUV技術來生產HBM3e,未來的HBM4與台積電的合作關係也可能會越來越密切,因為台積電擁有全球高達九二%的先進製程,靠向台積電的先進製程,才可能提高晶片封裝後的效能。台積電也期待與客戶的密切合作,提供完整的HBM4解決方案。
HBM發展到HBM3e階段,SK海力士始終維持超過一半的市占率,三星電子和美光科技能否趕上SK海力士仍有一定的困難度。尤其是三星電子在HBM3與HBM3e沒通過Nvidia認證,部分市占率會遭美光科技和SK海力士吞噬。在這個市場上,誰能有最高的市占率就有更強的定價能力,未來AI對高階HBM的需求會越來越高,誰能開出最大的產能就是最後的贏家。高容量、低延遲、低功耗和高效傳輸 為何輝達和超微都在搶HBM? https://bit.ly/3Ky6gvE
最早量產的目標是將HBM4透過堆疊的方式與晶圓級處理器整合在一起。相對現有的2.5D封裝方式,這種方法顯然可以在邏輯晶片上整合容量大的多的HBM。 (當年AMD選擇HBM的原因,就是因為在CPU週邊擺DDR容量上不去-HBM4和HBM4E顯然是與CoW-SoW技術伴生的。據稱SK 海力士計劃在2025 年下半年推出採用12 層DRAM 堆疊的首批HBM4 產品,最早在2026 年推出他們的HBM4E 內存(頻寬將是HBM4 的1.4 倍)。在海力士的HBM4和HBM4E方案中,HBM直接堆疊在邏輯Die上或下,互連距離縮短為晶片厚度,不再需要晶片寬度距離的平面連接。美光則預計在2026 年至2027 年期間將有36GB 到48GB 的 12-Hi 和16-Hi 堆疊的HBM4推向市場。 2028 年將推出HBM4E,容量提高到每個堆疊48GB 到64GB。Info-SoW結構上難以直接整合超大容量的HBM。我記得有人批評Groq 2019的方案中沒有集成HBM,但實際上根本原因在於:想做到將對等需求的HBM集成,就只能將HBM堆疊邏輯Die的上或下,在當時並沒有成熟的工藝Solution。對半導體產業的影響台積電SoW技術將推動的晶圓級計算技術的快速發展,預計對半導體產業會有極為影響深遠的影響。傳統的運算叢集互連(透過光纖和交換器)將迅速集成為晶圓運算模式,桌面超算和桌面叢集成為可能。SoW技術在人工智慧之外,也有非常廣泛的應用空間,預計資料中心、高吞吐網路服務都會大量採用SoW技術降低IDC成本。結合新的矽光互連整合技術,摩爾定律將進一步延續,新的運算架構逐漸走入主流應用。(半導體產業縱橫)台積電SoW技術突破,如何改變半導體產業的未來? | 美股 | 鉅亨號 | Anue鉅亨 https://bit.ly/3XapZJd
在量子電腦開發過程中,AI巨擘輝達可望扮演關鍵角色,加速產品的問世。(翻攝NVIDIA官網)
© 由 鏡週刊 提供【直擊台量子電腦1】Google豪砸500億美元催生量子電腦 未來生技醫療、自駕車發展將突飛猛進 https://bit.ly/3yHN2Rt
量子電腦角逐賽愈演愈烈,科技大廠Google、IBM、微軟、阿里巴巴無不力圖發展量子電腦,彷彿誰能先發展具實用性量子電腦,就能稱霸未來世界。本刊調查,在這場科技爭霸賽中,因量子位元數增加,極須仰賴AI來協助編寫,加速量子電腦落地時程,看準此趨勢發展,AI指標性業者輝達(NVIDIA)也早早加入戰局,不僅要用其AI技術搶攻市場,更是為了下世代高速運算提早做準備。
全球量子電腦發展由IBM搶先領跑,在2019年搶先推出全球第一台商用量子電腦IBM Q System One;同年,Google也推出量子電腦Sycamore急起直追,並且在今年宣布將耗資500億美元,發起為期3年的XPRIZE量子應用全球競賽,找尋量子電腦未來發展與應用機會。
科技大咖紛紛卡位,希望早日讓量子電腦商用化,而已成AI產業領頭羊的NVIDIA,也不敢輕忽此一戰場,日前推出量子運算平台CUDA-Q,並攜手日商Fujitsu(富士通)在日本產業技術綜合研究所(AIST)量子人工智慧技術全球商業研究開發中心(G-QuAT),建造ABCI超級運算中心ABCI-Q,預計於明年初上線,希望能夠讓AI跨越新的一步。
原來,AI與量子電腦已經相互成為幫手。因為隨著量子位元數增加,傳統以手動程式編寫已無法因應需求,必須靠AI來協助編寫。同樣,以現有電腦來進行AI運算也會走到極限;屆時,就要靠量子電腦幫忙。「就如同父母親養小孩,小孩長大後奉養父母的概念一樣。」陳啟東生動地譬喻。
專家表示,目前量子電腦仍處於發展階段,但未來量子電腦若成功,將有機會解決傳統及超級電腦無法解決的問題,可望為生技醫療、自駕車、金融投資、人工智慧等需要計算龐大資訊量的行業的發展,帶來革命性改變。
量子電腦若能順利商轉成功,可望為生技醫療、金融、自駕車等產業發展帶來相當大的助益。
【直擊台量子電腦1】Google豪砸500億美元催生量子電腦 未來生技醫療、自駕車發展將突飛猛進 https://bit.ly/3yHN2Rt
--------------------------
台大被視為台灣最高學府,想要錄取醫科要有一定的成績。(示意圖/資料照)
百萬網紅實測AI考台大!成績出爐「數學科墊底」 僅能上2系 https://bit.ly/4bNoLIw
AI時代來臨,ChatGPT的應用也越來越廣泛,未來參加任何的考試甚至都能拿到滿分。對此,百萬網紅Cheap使用「ChatGPT 4o」來實測參加大學指考能拿到什麼成績,結果發現數乙的成績慘不忍睹。根據測驗結果來看,台大只能錄取2個科系。
Cheap在5日更新了YouTube影片,內容是利用ChatGPT 4o考指考,「能上台大醫科嗎?」他採用110年末代指考的試題進行實測,一共有10個科目,分別是國文、英文、數甲、數乙、歷史、地理、公民、物理、化學、以及生物。
Cheap使用「ChatGPT 4o」實測AI能否考上台大醫科,結果出爐。(圖/翻攝自Cheap臉書)
Cheap使用「ChatGPT 4o」實測AI能否考上台大醫科,結果出爐。(圖/翻攝自Cheap臉書)
© 由 三立新聞網 提供
▲Cheap使用「ChatGPT 4o」實測AI能否考上台大醫科,結果出爐。(圖/翻攝自Cheap臉書)
ChatGPT 4o作答結束對完解答後,10個科目之中3科拿到頂標,數乙成績最低僅有後標。Cheap公布實測成績,國文拿到71.8分(前標)、英文100分(頂標)、數甲38分(均標)、數乙45.2分(後標)、歷史94分(頂標)、地理70分(均標)、公民74分(頂標)、物理54分(均標)、化學67分(均標)、生物75分(前標)。
依結果而言,ChatGPT文科方面的成績較好,數理稍弱,特別是2科數學,分別只拿到均標和後標。把測驗結果參照2021年台大指考的分數進行對照,可以發現ChatGPT最後並無法錄取台大醫學系,台大僅有2科系能錄取,分別是人類學系、園藝暨景觀學系。不過,ChatGPT的成績若是放到政大或清大等學校,則能考上不少文組相關的科系
百萬網紅實測AI考台大!成績出爐「數學科墊底」 僅能上2系 https://bit.ly/4bNoLIw
------------------
人工智慧公司OpenAI打造的生成式AI聊天機器人「ChatGPT」昨(4)日傳出全球災情,實測後發現網頁版或行動裝置應用程式都是一片空白,官方也證實部分用戶無法使用,大量使用者也在社群媒體上哀號當機狀況造成不便。與此同時,調查發現Google打造的生成式AI聊天機器人「Gemini」搜尋量也在這段時間激增,其次才是微軟自家打造的「Copilot」。
ChatGPT在全球傳出無法使用災情,科技評測資訊網站《Tom's Guide》分析指出,可能的原因是伺服器負載增加,因為ChatGPT近期提供了更高階功能給所有使用者,免費用戶也可使用例如數據分析、文件上傳等功能,這可能導致伺服器負載過大而中斷運作的情況。
然而,全球使用者在遇到集體當機後也紛紛尋找其他AI聊天機器人作為替代,包含Google 母公司 Alphabet 旗下的 Gemini、AnthropicAI旗下Claude和Perplexity 等平台都因為大批流量突然湧入而出現癱瘓,一時間「AI罷工」、「GPT is down」等相關用語也在社群媒體上被廣泛討論。
根據OpenAI的服務狀態追蹤器數據顯示,ChatGPT於太平洋夏令時間4日凌晨零時21分,開始出現首次斷網狀況,OpenAI表示已將這些事故標記為重大服務中斷,但該公司仍未解釋相關原因和細節。
報導也提到,根據初步調查,在ChatGPT故障後的四小時內,其競爭對手 Gemini 的全球搜尋量成長了 60%,搜尋次數超過了32萬7千次,遠高於平常的20萬4991次搜尋量;同樣地,微軟的Copilot搜索量也在這段時間增長50%,達到16677次。
儘管OpenAI 表示目前已經解決問題,讓用戶可以放心繼續使用,但這次的「AI罷工」事件顯示,全球不少用戶將Gemini視為ChatGPT的替代選項。
ChatGPT當機全球崩潰!對手搜尋量激增6成 https://bit.ly/4e8cQXf
------------------------
「全世界有七八十億人,有接近五十億人正在使用智能手機,每天使用的時間也長達四個小時,所以這代表我們的智能手機,在消費性電子領域裡面它的黏著度是最高的,相信AI要普及,智能手機一定是最天然,最天然的載體。」
3C達人林小旭:「在終端產品的這個運算力,也就是我們所謂的處理器的能力,這個部分在市場上所有,95%以上的手機都是缺乏的,因為在以往的算力上沒有那麼強大,在運行相關AI應用的時候,這時候就會面臨到速度的瓶頸。」
儘管人稱今年是AI手機元年,但AI手機的商業模式,以及在消費者的實際體驗上,要完全落地,還需要時機。
3C達人林小旭:「它的整體的設計怎麼樣讓使用者來說,能夠感受到它更聰明,因為在目前所有的操作裡面,都必須使用者自己手動去輸入,那甚至會有面臨到一個門檻就是,使用者輸入的語法,所呈現出來的結果可能就有各自不同,所以這個主動性跟它的聰明性如何去調校,這個就是目前各品牌手機正在努力的地方,畢竟相關的AI,它資料庫要如何去訓練,素材如何取得,其實這都是一個很龐大的資源,包含從使用者端取得,包含從各個媒介上面去取得相關授權,這個就會面臨到整體定位來說,市場大者恆大小的就會變得很難生存。」
AI模型,可能改變市場規則,也為接近飽和的智慧型手機市場,帶來新的想像。
AI浪潮5/今年最大亮點「AI手機」3大功能照過來! https://bit.ly/4aQ2tEz
黃仁勳女兒黃敏珊、兒子黃勝斌不但興趣廣泛學歷也相當驚人。(圖/資料照片)
© 由 NOWnews (Taiwan) 提供
[NOWnews今日新聞] 輝達(NVIDIA)執行長黃仁勳近日來台掀起風潮,他的兒子黃勝斌、女兒黃敏珊日前也現身台北國際電腦展。黃仁勳的兒女兩人皆擁有名校MBA文憑,在進入輝達之前的工作經歷也都十分豐富,黃勝斌曾是酒保,黃敏珊則曾經擔任廚師。
黃仁勳兒子黃勝斌(Spencer Huang)擁有芝加哥哥倫比亞學院國際行銷與文化研究雙學位,2019年在麻省理工學院史隆管理學院攻讀AI相關商業策略影響,2022年拿到紐約大學商學院企管碩士學位,研究領域同為AI。
黃勝斌2015年回到台灣,與朋友合資,在台北信義區經營酒吧R&D Cocktail Lab,也曾在台北一家酒吧Ounce Speakeasy當過1年調酒師。
黃勝斌也待過福特汽車、Ommo科技、輝瑞藥廠,從事行銷、產品策略顧問等工作,2018年還曾做過將近1年的自由攝影工作,經歷十分多元。黃勝斌目前則在輝達擔任產品經理,從事雲端原生技術建構,以簡化、加速機器人模擬程式的應用。
女兒黃敏珊(Madison Huang)則畢業於紐約餐飲學院,曾在紐約及舊金山灣區擔任廚師,還到巴黎學習糕點製作,並在倫敦藍帶學院進修半年,之後又到美國佛州邁阿密東方文華酒店,以及米其林2星餐廳的廚房工作。
黃敏珊也擁有倫敦商業學院行銷與策略雙學位MBA,她進入輝達之前任職於LVMH集團。目前則在輝達擔任產品行銷主任,負責輝達3D應用程式與服務軟體開發平台NVIDIA Omniverse的定位、行銷策略與發布黃仁勳兒女非靠爸富二代!驚人MBA學歷曝光 https://bit.ly/3yRn6mE
輝達揭曉下一代圖形處理器(GPU)架構Rubin,以及中央處理器(CPU)架構Vera,這位傳奇女天文學家的生平和貢獻
輝達新晶片架構「Rubin」 紀念傳奇女天文學家、暗物質研究先驅 - 自由財經
輝達新晶片架構「Rubin」 紀念傳奇女天文學家、暗物質研究先驅 - 自由財經
輝達、微軟以及蘋果公司的總市值比中國股市還要高 3家公司抵過1國 輝達、蘋果和微軟總市值超過中國股市 - 自由財經
中國養套殺v.s.台灣互惠共榮 1張圖曝特斯拉淪股市衰神、輝達成AI霸主 - 自由財經
你怎麼可能 不喜歡 這樣的 黃仁勳!?
黃仁勳:「我曾經是打掃廁所的,但現在我是一家公司的CEO。」
「台灣是無名的英雄,卻是世界的支柱。」
「我很熱意看到他人的成功。」
「我希望你偉大,但偉大時常伴隨更多的痛苦。」
「無論是追求目標,還是為了生存,都別用走的,用跑的!」
「領導力就是建造舞台讓他人發光發熱。」
「正視錯誤、懷著謙卑的心向他人求助,這一切讓我們重新站起來。」
「台灣是我的根,也是我的靈感來源。」
「台灣是全球最重要的國家之一,處於電子產業的中心,電腦產業的發展也依賴台灣,所以台灣是非常重要的國家。」
「我很幸運 我的成功,源自於我的父母給我成功的條件。」
「偉大,不在於高智商,而在於 人格性格。」
黃仁勳:「TAIWAN字母就藏AI ,理當為世界打造AI基礎。」
2024/06/06 :Nvidia 市值超過 3兆美元
黃仁勳身價,也同步超過 3兆台幣
但他仍然強調自己的「幸運」、「謙遜」、「努力」
謝謝你 黃仁勳 讓世界更加倍的關注台灣!
2024年AI伺服器概念股還值得投資嗎?台灣AI供應鏈有哪些公司?3圖表帶你一次看懂!
輝達(NVDA)使得現在只要跟AI有直接或間接關聯的族群,都有機會受到題材加持。但新聞上提到的AI伺服器概念股那麼多,台灣有哪些公司受惠?AI供應鏈帶來哪些商機?AI概念股是什麼?豐雲學堂將一一為你說明!
目錄
一、AI是什麼?
二、AI概念股供應鏈有哪些?
三、結論
最新新聞消息:上週輝達(NVIDIA)公布24Q1財報,營收、獲利、毛利率表現亮眼,帶動其股價衝破1000美元,同時激勵相關AI概念股。近日輝達創辦人黃仁勳來台,一舉一動受到各界關注,黃仁勳除了6月2日在台大綜合體育館發表主題演講、出席6月4日台北國際電腦展(COMPUTEX 2024),也將親自拜訪固樁供應鏈夥伴,使得台股再掀一波AI炫風。對此,豐雲學堂也會即時更新COMPUTEX 2024最新消息!
ChatGPT橫空出世,使得AI引爆全球投資熱潮,其中GPU大廠輝達(Nvidia)被認為是生成式AI最大受惠者,繳出亮眼業績與股價,同時帶動台、美相關類股表現,現在只要跟AI有直接或間接關聯的族群,都有機會受到題材加持,例如廣達(2382)股價因此狂飆,還成台股撐盤要角。但新聞上提到的AI伺服器概念股那麼多,AI概念股是什麼?台灣有哪些公司受惠?AI供應鏈帶來哪些商機?
一、AI是什麼?
AI是artificial intelligence的縮寫,意即人工智慧,模仿人類思維的認知功能,藉由使用者輸入資料獲得知識,透過生成式不斷的學習,快速精準地做出決策及回應。
AI PC是什麼?
目前市場上對AI PC的定義仍不明確,不過前面我們提到,AI是人工智慧,生成式AI主要是透過資料庫來不斷的學習,而現今廠商也將技術導入於PC端,即為AI PC。主要會讓晶片的效能得到更多提升,同時 功耗(TDP)勢必會增加,因此市場期待,散熱零組件廠商將帶來正面的效果。
資策會 MIC 日前表示,2024年AI PC與AI手機將成終端消費市場成長新動力。生成式AI的高速發展,帶動新一波AI伺服器需求,使得AI晶片競爭白熱化。雖然 AI PC 和 AI 手機目前仍未見殺手級應用,但也為記憶體、高速傳輸、網通等族群帶來後市的想像空間。
二、AI概念股供應鏈有哪些?
AI涉及的供應鏈相當廣泛,這些公司在AI技術研發和應用上都扮演關鍵角色。整個AI產業包括製造組成伺服器的晶片和關鍵零組件的上游、伺服器代工廠的中游,以及軟體服務公司的下游。以下將列舉代表性廠商:
GPU:Nvidia輝達、AMD超微、Intel英特爾
CPU:AMD超微、Intel英特爾
DRAM:三星、SK海力士、Micron美光
先進製程晶圓代工:台積電(2330)
CoWoS是什麼?先進製程的封裝技術之一,因AI需求成焦點!CoWoS簡介、CoWoS概念股一次看
CPO是什麼?提高AI資料傳輸效率的關鍵!矽光子簡介、CPO概念股一次看
矽智財(IP):世芯-KY(3661)、創意(3443)、M31(6643)、智原(3035)
網通:聯發科(2454)、智邦(2345)
伺服器管理晶片(BMC):信驊(5274)、新唐(4919)
高速傳輸IC:譜瑞-KY(4966)
封測:日月光(3711)
關鍵零組件包括:
A供應鏈上游
電源供應器:台達電(2308)、光寶科(2301)、群光(2385)
散熱:奇鋐(3017)、雙鴻(3324)、超眾(6230)、建準(2421)
伺服器電路板(PCB):金像電(2368)、博智(8155)、健鼎(3044)
延伸閱讀:PCB是什麼?印刷電路板是電子產品之母,硬板、軟板、IC載板介紹一次看!
銅箔基板(CCL):台燿(6274)、台光電(2383)、聯茂(6213)
伺服器機殼:勤誠(8210)、偉訓(3032)、營邦(3693)
CPU 插座:嘉澤(3533)
AI概念股2:中游供應鏈(伺服器製造及組裝)
AI供應鏈中游
伺服器品牌廠:HP、戴爾、聯想、技嘉(2376)
伺服器代工廠:鴻海(2317)、廣達(2382)、緯穎(6669)、英業達(2356)
AI概念股3:下游供應鏈(軟體服務及AI應用)
AI供應鏈下游
大型雲端服務業者:亞馬遜 AWS、微軟 Azure、Google Cloud、Meta
AI公司:OpenAI、DeepMind
算力服務:台智雲(華碩旗下)
三、結論
AI概念股僅代表與「人工智慧」相關的股票族群,並不代表它們的股價必然上漲,只能顯示它們上漲的機率可能較高。因此投資人除了關注供應鏈的整體狀況,同時也要考慮概念股本身的基本面和營運表現!
2024年AI伺服器概念股還值得投資嗎?台灣AI供應鏈有哪些公司?3圖表帶你一次看懂!|豐雲學堂 2024 年 06 月 https://bit.ly/3wXHm5B
CoWoS是什麼?先進製程的封裝技術之一,因AI需求成焦點!CoWoS簡介、CoWoS概念股一次看|豐雲學堂 2024 年 06 月
CoWoS是什麼?魏哲家:台積電CoWoS「非常非常」強勁!圖解CoWoS封裝技術|數位時代 BusinessNext https://bit.ly/3xa0jC8
AI需求爆發,台積電先進封裝CoWoS產能供不應求,台積電總裁魏哲家強調,CoWoS需求「非常、非常 (very very)」強勁,台積電將在2024年擴充超過兩倍的CoWoS產能,但還是無法滿足AI客戶的半導體需求。
魏哲家認為,客戶的成功仍是台積電的首要任務,無論客戶是否找上其他CoWoS代工廠都不是台積電所要擔心的。同時,台積電也會基於長期的夥伴關係持續給予所有客戶支援,而非僅聚焦在單一大客戶。
對於擴充CoWoS產能,《路透社》先前引用知情人士來源指出,台積電考慮在日本建立先進封裝能力,其中一個選擇是將CoWoS封裝技術帶到日本。目前,台積電的CoWoS產能全都在台灣。
報導指出,此舉將為正在為加緊半導體產業競爭力的日本,增添動力。不過由於審議還在初步階段,因此投資規模與時程還不確定。對此,台積電拒絕置評。
另外,台積電確定進駐嘉義科學園區。行政院副院長鄭文燦3月18日指出,台積電兩座CoWoS先進封裝廠落腳嘉義,預計5月初動工。
究竟CoWoS是什麼,以下文章帶您一次看懂:
AI概念股大爆發,晶圓龍頭台積電除成為最大受益者外,先進封裝CoWoS產能更是供不應求。應用在AI的先進晶片,需同時達到高速和節能以及成本控制,CoWoS是當前重要的解決方案,台積電董事長劉德音會也在六月股東會上表示,AI大幅帶動了先進封裝的需求。
國內能同時做到生產先進製程和封裝的廠商僅有台積電一家,高品質且一條龍的服務成為AI浪潮下的直接受益者。究竟什麼是CoWoS?台積電當前產能狀況如何?又有哪些周邊廠商值得關注呢?
CoWoS先進封裝是什麼?
CoWoS可以分成「CoW」和「WoS」來看。
「CoW」指的是「Chip-on-Wafer」,指的是晶片堆疊;「WoS」指的是「Wafer-on-Substrate」,則是將晶片堆疊在基板上。簡單來說,CoWoS指的就是把晶片堆疊起來,然後封裝於基板上,以此來減少晶片需要的空間,同時也可以減少功耗和成本。
CoWoS的出現,也延伸了摩爾定律的壽命。由於晶片的微縮將導致晶片成本增加,每兩年節省一半成本的定律將不復存在,然而透過CoWoS,能夠將不同製程的晶片封裝在一起,例如5奈米的GPU和12奈米的射頻晶片,藉此達到加速運算但成本可控的目的。
CoWoS為貴賓服務!魏哲家:需求雙倍成長
以台積電來說,當前先進封裝服務的對象為下單7奈米以下製程客戶,換句話說,如蘋果(Apple)、輝達(NVIDIA)和超微(AMD)這樣的頂級客戶群才能夠下單CoWoS。
台積電總裁魏哲家在上周法說會指出,先進封裝需求明年有望雙倍成長
CoWoS仍存有一些待解決的問題,例如由於晶片堆疊後所產生的等熱問題,或良率提升等等,都讓CoWoS在生產上出現一些障礙。除此之外,以現階段而言台積電CoWoS供應量還太少,野村證券就指出,台積電CoWoS產能,是導致當前AI晶片出貨量卡關的主要原因。
台積電總裁魏哲家在上週第二季的法說表示,接下來CoWoS的需求幾乎是雙倍成長,台積電也正積極擴充產能當中。
CoWoS帶旺哪些台廠供應鏈?
海通國際指出,台積電今年Q2的CoWoS產能約落在12kwpm(千片每月),預期2024年的Q4有機會挑戰兩萬片以上,推估可能會達到2萬5000片。海通表示,預估輝達今年下半對CoWoS需求會再翻倍,2024年的全年需求將達到8萬片左右。然而熟悉輝達的內部人士指出,2024年輝達開出的需求為15萬片,但尚未獲得證實。
NVIDIA共同創辦人暨執行長黃仁勳
輝達所帶動的AI浪潮,促成了台積電CoWoS需求高漲
導致產能擴充緩慢的原因在於設備交貨的延遲,包含日廠Shibaura、Tazmo等設備交期約需要6至8個月。魏哲家則在法說會上表示,台積電預期至明年底時,有機會緩解目前供應吃緊的狀況。但海通指出,台積電之所以不願意擴充太快的另一個原因,是擔心市場超額預定CoWoS產能,仍在謹慎評估當中。
隨著CoWoS需求的上升,相關台系設備廠如弘塑、萬潤、辛耘、均豪、志聖、均華、群翊和鈦昇等都受到關注。在供不應求情況下,台積電訂單也滿溢至如日月光下游封測廠,受到市場高度關注。CoWoS是什麼?魏哲家:台積電CoWoS「非常非常」強勁!圖解CoWoS封裝技術|數位時代 BusinessNext https://bit.ly/3xa0jC8
CoWoS產能吃緊,圖解CoWoS封裝為何厲害?13檔概念股布局總整理,股價漲多還能追嗎?
台積電CoWoS產能加速!CoWoS封裝是什麼?13檔CoWoS概念股!
2023/08/30 19:06:27
CoWoS產能吃緊,圖解CoWoS封裝為何厲害?13檔概念股布局總整理,股價漲多還能追嗎? | 產業熱點 | 產業 | 經濟日報 https://bit.ly/4egGt94
7/17 AMD 執行長蘇姿丰訪台,開啟了為期五天的台灣行程!而這次蘇媽訪台的行程,AI產業概念股又再度進入投資人的關注當中,其中也包含CoWoS封裝產業!本文將和各位讀者介紹CoWoS是什麼、以及CoWoS應用在哪些領域、和大家最關注的CoWoS封裝概念股有哪些。
CoWoS 是什麼
CoWoS封裝 (英文名為 Chip-on-Wafer-on-Substrate ),是一種先進的半導體封裝技術,可以進一步將CoWoS封裝拆分成Cow和Wos兩步驟:
.Cow 是將晶片堆疊在導線載板上
.Wos 是將堆疊好的晶片封裝至基板上,最終堆疊完成後形成2.5D / 3D的型態,進而提升晶片成品的效能。
CoWoS封裝技術的原理是在一個基板上去堆疊不同的晶片,因此這項技術的優點在於面積小、節省功耗與成本、提高晶片效能。另外,CoWoS的技術門檻也相當高,除了芯片之間的堆疊和連接要求非常精確外,多個晶片堆疊也讓配套的散熱技術要求大大提升。
不同封裝技術:Info、Cowos 比較
目前晶片性能要更進一步提升,靠的不僅僅是更先進的晶圓製造技術,封裝技術也要有所提升,而Info與CoWoS都是屬於先進封裝技術的範疇。
相比上面介紹的CoWoS封裝技術,Info封裝技術在堆疊過程中,利用半導體製程技術少使用了中間的導線載板,除了大大降低了封裝成本外,尺寸上可以做到更輕薄,更有利於散熱和降低晶片的功耗。
CoWoS封裝技術應用的領域廣泛,包含高效能運算HPC、AI人工智能、數據中心、5G、物聯網、車用電子等等,可以說在未來的各大趨勢,CoWoS封裝技術會扮演著相當重要的地位。
而近期最火紅的AI熱門股Nvidia為了製造AI 伺服器專用的 GPU,也再不斷追加CoWoS封裝技術的訂單,預期Nvidia今年對CoWoS的需求初預估將大幅成長 50%。
Cowos 供應鏈位階
從半導體產業的供應鏈來看可以區分成上中下游。
上游部份主要是IP與IC設計,主要是將半導體的晶圓產品設計出來
中游為IC製造,會將上游設計出來的產品圖製作成晶圓半成品
下游則是IC封裝與測試,會將中游製造出來的晶圓半成品,按順序經過前段測試、切割、封裝、後段測試的流程後,將晶圓完成品送至各大IC通路做使用。
而Cowos,則是位處於半導體產業鏈的下游IC封裝與測試的位階中。
自從 ChatGPT 這類的 AI 應用在今年開始推出,以及 Nvidia 與 AMD 先後給出AI產業的樂觀展望後,台灣的 Cowos 概念股立刻成為市場熱門的股票選擇。CoWoS 概念股除了包含封裝技術本身以外,也包含封裝過程中會使用到的半導體材料以及後續的測試等等,以下是我們整理的台灣 CoWoS 概念股。
另外,這邊也幫大家整理一些美股的封裝概念股,其中值得關注的是AMKR這間公司,由於目前CoWoS封裝的產能是由台積電獨家供應,Nvidia有意培養第二個先進封裝供應商,部分的封裝訂單是有給到AMKR的,雖然目前的訂單規模與獲利都不高,但仍然值得關注後續的營運表現。
Cowos 未來:台積電加速產能
根據Yole Développement的產業分析報告顯示:
2021年先進封裝市場規模為380億美元,其中先進封裝的市場佔所有IC封裝市場的份額為44%,預計2027年先進封裝市場將成長至650億美元,換算年複合成長率CAGR為10%,且占據所有IC封裝的市場份額將成長至50%以上。
而根據CoWoS產業大佬台積電最新的法說會資訊來看,目前後端的先進封裝產能仍然緊缺,,台積電也在努力的擴充產能,預計明年才會獲得舒緩,由此可知目前Cowos的產能仍然供不應求,短期未來的需求依然強勁。
CoWoS概念股可以買嗎
CoWoS封裝無論是現在還是未來都具有一定程度的題材性,從最近的AI,到未來可能出現大量應用的車用、5G、物聯網等等,基本上CoWoS都與未來的趨勢綁在一起,未來只要這些應用領域出現利多消息,CoWoS概念股就有望跟著受惠,長期來看CoWoS概念股是非常值得投資人關注的領域。
而以目前CoWoS概念股的價格走勢來看,多數都有30%以上甚至翻倍的漲幅,我們不會和各位投資人預測這波漲幅是否要結束了,但若是你想要在現在布局CoWoS概念股,市場的波動程度可能會較高,請務必在買進前就設定好停損與停利的機制!
Cowos封裝產業結論
.CoWoS封裝是一種先進的半導體封裝技術,主要技術是在一個基板上去堆疊多種不同的晶片,因此這項技術有面積小、節省功耗與成本、提高晶片效能的優點
.CoWoS封裝技術應用的領域廣泛,包含高效能運算HPC、AI人工智能、數據中心、5G、物聯網、車用電子等等,可以說在未來的各大趨勢,CoWoS封裝技術會扮演著相當重要的地位
.CoWoS概念股除了包含封裝技術本身以外,也包含封裝過程中會使用到的半導體材料以及後續的測試等等領域,相關台灣概念股整理請見內文
.預計至2027年為止,CoWoS產業的年複合成長率CAGR為10%,且占據所有IC封裝的市場份額將從21年的44%成長至50%以上
CoWoS產能吃緊,圖解CoWoS封裝為何厲害?13檔概念股布局總整理,股價漲多還能追嗎? | 產業熱點 | 產業 | 經濟日報 https://bit.ly/4egGt94
CoWoS是什麼?先進製程的封裝技術之一,因AI需求成焦點!CoWoS簡介、CoWoS概念股一次看|豐雲學堂 2024 年 06 月
CoWoS是什麼?CoWoS概念股有哪些?CoWoS封裝懶人包一次看
CoWoS是什麼?CoWoS概念股有哪些?CoWoS封裝懶人包一次看 https://bit.ly/3VtLnId
更新時間: 2024年4月19日
CoWoS是什麼?近期CoWoS相關新聞不斷,包括:台積電CoWoS技術即將引進日本、CoWoS先進封裝廠確定落腳嘉義科學園區,就連NVIDIA輝達的晶片討論中也不停提到CoWoS,CoWoS是什麼?CoWoS概念股有哪些?CoWoS封裝技術目前的挑戰為何?Yahoo奇摩新聞將以淺顯易懂的方式,帶你徹底認識CoWoS。
CoWoS是什麼?
CoWoS是什麼?以技術性的文字來說,CoWoS 可以分成CoW和WoS兩個部分來看。CoW(Chip-on-Wafer)是晶片堆疊,WoS(Wafer-on-Substrate)是將晶片堆疊在基板上。加起來的CoWoS 就是把晶片堆疊起來,再封裝於基板上。
用白話的說明,可以想像是你的手機裡,有一塊晶片有許多小工人在幫忙你工作,手機功能增加,就要有新的廠房(晶片)、加入新工人,才能有夠好的效能。但當工廠蓋太多,已經動彈不得,但是手機不能變大,功能又希望再提升,該怎麼辦?
台積電的工程師們提出了一個概念叫「 3D 封裝」,同一片土地,工廠可以不只蓋一樓,往上蓋樓房,往上疊加後,工人也可以變得更多,效能也可以更好。
想到蓋樓房的概念,但很多問題還無法解決,台積電的工程師們又想了一個退而求其次的方法:2.5D封裝。
本來每個工廠之間還要保留電線桿,可以想像2.5D封裝等於把電線地下化,把所有電線桿都拆掉,在所有工廠的底下墊一層(矽中介層)裡面埋管線(矽穿孔),通到每一個工廠,這樣工廠又可以更密集一點,塞進更多工人。
CoWoS是什麼?CoWoS概念股有哪些?CoWoS封裝懶人包一次看 https://bit.ly/3VtLnId
上面的技術,如果用工廠、工人來想像很容易,但這些工廠全都是奈米等級的工廠,一奈米有多小?大概是一根頭髮還要切十萬次這麼小,在這麼小空間裡面,蓋出工廠、還要疊起來、解決各種管線問題,就是台積電目前領先全球的CoWoS技術。
CoWoS目前的挑戰是什麼?
AI與高效能運算(HPC) 需求變大,有越來越多東西都需要AI,又需要更多的工人了,不得不面對 3D的問題。
首先工廠要怎麼蓋?也就是晶片的厚度不能太厚,畢竟我們不可能拿著像辭海一樣厚的手機,輕薄短小的晶片要怎麼做,就是首要問題。
另外,工廠疊起來之後要怎麼聯繫?比方說樓上樓下的水電、瓦斯、網路管線要在同一個位置,才能夠互相聯通,一開始只是不同的晶片製作,要能做出金屬凸塊來作為管線,現在台積電又發展SoIC技術,讓樓上樓下晶片直接用更短的訊號傳輸路徑,讓技術門檻又更高,因為這需要兩片晶片都非常平整才有辦法做到。
Nvida剛發表的BlackWell就使用到CoWoS封裝技術,圖為Nvida執行長黃仁勳。(圖片來源: Andrej Sokolow/picture alliance via Getty Images)
CoWoS是什麼?CoWoS概念股有哪些?CoWoS封裝懶人包一次看 https://bit.ly/3VtLnId
CoWoS概念股有哪些?
自從Nvidia和AMD都對AI產業賦予無限的希望,台灣的CoWoS概念股也成為熱門選擇,相關概念股如前面提到的技術本身之外,也包含會使用到的材料以及後續測試等等廠商,以下是相關的台灣CoWoS概念股。
台積電(2330)
日月光(3711)
京元電(2449)
欣興(3037)
志聖(2467)
旺矽(6223)
辛耘(3583)
弘塑(3131)
萬潤(6187)
均華(6640)
CoWoS應用在哪些地方?
CoWoS封裝技術的應用非常廣泛,凡舉需要大量運算的需求,幾乎都需要用到,例如AI、高效能運算HPC、5G、車用電子、物聯網等,都少不了CoWoS的封裝技術,像是近來的Nvida剛發表的BlackWell就使用到CoWoS封裝技術。
CoWoS是什麼?CoWoS概念股有哪些?CoWoS封裝懶人包一次看 https://bit.ly/3VtLnId
說羅馬不是一天造成的,來看看輝達一路走來經歷了什麼
https://www.threads.net/@jonathanwu_tech/post/C77FLPiPHPc
輝達執行長黃仁勳5月26日抵台後,不僅稱台灣是最重要的國家,也多次發表挺台言論,在台大的主題演講秀出AI世界地圖,台灣與中國為不同色塊,猶如間接表明台灣的主權。北京忍了幾天,派出大內宣媒體《觀察者網》開出第一槍,開嗆黃仁勳得意忘形,不理會中國網民的質疑。對此,黃仁勳在8日離台前回應表示,他並非發表地緣政治評論,而是感謝所有技術夥伴支持與貢獻。 挺台不理會小粉紅 https://bit.ly/4eem303
ARM架構,過去稱作進階精簡指令集機器 ARM架構 - 維基百科,自由的百科全書 https://bit.ly/3VyU9ow
2011年,ARM的客戶報告79億ARM處理器出貨量,占有95%的智慧型手機、90%的硬碟機、40%的數位電視和機上盒、15%的微控制器、和20%的移動電腦[6]。在2012年,微軟與ARM科技生產新的Surface平板電腦,AMD宣布它將於2014年開始生產基於ARM核心的64位元伺服器晶片,[7]2016年,日本富士通公司宣布「京」超級電腦的後繼機種將採用ARM架構[3],該超級電腦於2019年5月定名為「富岳---2020年11月11日,蘋果公司發布基於ARM晶片(Apple M1)的蘋果桌上型電腦和筆記型電腦
ARM架構的筆電,ARM是(Advanced RISC Machine)「進階精簡指令集機器」的縮寫。對很多人來說,筆電就筆電,為什麼要特別強調「ARM架構筆電」呢?那我們以前用的筆電又是什麼架構?或許你可能也想參考更多筆電挑選與推薦指南
什麼是ARM架構筆電?為什麼ARM筆電會是未來的主流? | T客邦 https://bit.ly/3xb6Yfg
Q:什麼是ARM架構?
A:相對於我們一般使用的x86架構,簡單來說,ARM架構是另外一種不同的指令集所建構出來的處理器。
Q:智慧型手機大多都是用ARM架構,ARM架構的優點是什麼?
A:大家現在用的手機,像是蘋果、Android都是使用ARM架構的處理器,所以ARM架構筆電的優勢就和手機一樣,優勢是耗電相對較少、功耗較低,相對的發熱也比較低。因此筆電的續航力會增加,而且有常時連網的能力。
Q:現在x86筆電支援的軟體,ARM筆電也都能支援嗎?
A:目前還沒有辦法,因為兩個是完全不同的指令集,因此目前我們所習慣使用X86架構下的軟體,如果安裝在ARM架構下,未必能100%的支援。
Q:主要製造ARM架構筆電CPU的廠商是哪幾間?
A:目前只有高通和聯發科所以開發出來的ARM架構CUP有應用在筆記型電腦上。蘋果的M1、M2處理器雖然也是使用ARM架構,但蘋果已經是自成一家了,而且蘋果對於原來的ARM架構做了很多自己的調整,因此一般在討論ARM架構的筆電時,通常不會把蘋果拿進來討論。
Q:ARM筆電都可以支援5G的行動上網嗎?
A:高通把筆電處理器的產品線定義為運算平台,之所以叫運算平台,是因為在這顆CPU裡也整合了4G或5G的數據機。所以安裝高通平台的筆電,絕大多數都可以直接透過行動網路上網。有些筆電有設計實體的SIM卡插槽,有些是用eSIM。
Q:ARM手機的CPU可能直接拿到筆電上來使用嗎?
A:真的要的話也可以,但是高通和聯發科都有為了筆電另外開產品線,像高通筆電用的CPU產品的運算平台就命名為「CX」,聯發科也有一條針對Chromebook的產品線,叫迅鯤(Kompanio)。
Q:ARM筆電可以安裝哪些作業系統?
A:Windwos、Chrome OS,有技術能力是可以自己裝Linux,相應的驅動程式支援度都還不錯。
Q:Arm筆電支援哪些版本的Windows作業系統?
A:Windows 10之後的版本都可以,但是如果你真的購買ARM筆電,又想要安裝Windows作業系統的話,推薦Windows 11或是好一些。Windows 11對於ARM平台做了非常多的改進,包含一個虛擬機可以跑x64的軟體,對於穩定性也做了很多的強化。
Q:ARM筆電目前最大的問題是什麼?
A:還是軟體的相容性,不是你習慣用的軟體都支援。像Chrome這套市佔率最高的瀏覽器就沒有原生的ARM軟體,雖然可以用虛擬機來跑,但效能就會差一些。或是Dropbox在ARM筆電上也無法安裝成功。這些都是目前ARM架構的問題,不是所有的軟體都支援。但大公司開發的軟體,大多有支援ARM筆電,像是微軟的OFFICE系列、Adobe旗下的軟體也都開始支援ARM架構
Q:為什麼大家還是會覺得ARM是未來筆電的主流?
A:這要回到筆電使用者的需求,筆電使用者要的是輕薄好帶,續航力長,這些都是ARM架構的強項,而且ARM筆電還能長時間連網,是符合筆電使用者對於工作筆電的要求。
什麼是ARM架構筆電?為什麼ARM筆電會是未來的主流? | T客邦 https://bit.ly/3xb6Yfg
ARM架構處理器的由來與優勢:從智慧型手機到超級電腦 - GIGABYTE 技嘉科技
AI勢不可擋,X86、ARM、RISC-V三大CPU架構誰將成為市場主流?【產業動態】AI勢不可擋,X86、ARM、RISC-V三大CPU架構誰將成為市場主流? - 美股放大鏡 MAGNIFIER https://bit.ly/3VyGE87
CPU架構定義了處理器的設計藍圖,決定了其處理資料和執行指令的能力。常見的架構包括ARM、x86和RISC-V。ARM以低功耗著稱,適合移動設備;x86擁有強大的性能,主宰PC和伺服器市場;RISC-V是新興的開源架構,以其可擴展性和靈活性受到關注,展示了技術創新和市場需求多樣化推動CPU技術不斷演進。
Vivian Jen 2024 年 3 月 6 日
什麼是CPU架構?
中央處理單元(CPU)的核心組件包括算術邏輯單元(ALU)、控制單元(CU)和暫存器。ALU 負責執行所有算術和邏輯運算;CU 管理和協調 CPU 內部和外部指令和數據流;而寄存器則提供一個快速存取的位置,用於暫時存儲計算和指令執行過程中的數據,從而實現高效的數據處理速度。
CPU結構
CPU 架構則涵蓋 CPU 的設計和功能結構,它涉及到的內部組件配置、數據處理方法、支持的指令集合,以及如何執行這些指令。架構的設計直接關係到 CPU 的性能指標、能源效率和系統兼容性。架構的選擇對於達到特定的計算目標、成本效益和軟體生態系統支持至關重要。隨著技術的發展和計算需求的多樣化,CPU 架構持續演進以適應市場的變化和需求。
兩大常見的 CPU 架構理念 — 複雜 vs 精簡誰才是王道
從 CPU 發明到現在,有非常多種架構,從我們熟悉的 X86、ARM,到不太熟悉的 MIPS、IA64,它們之間的差距都非常大。但是如果從最基本的邏輯角度來分類的話,它們可以被分為兩大類,即所謂的「複雜指令集」與「精簡指令集」系統,也就是經常看到的「CISC」與「RISC」
精簡指令集計算(RISC)和複雜指令集計算(CISC)是兩種主要的中央處理單元(CPU)架構理念。RISC 架構強調使用一組更小、更簡單的指令來達到硬體的簡化和提高指令的執行速度。這種方法通常能夠提升性能並降低功耗,使其成為移動設備和嵌入式系統的理想選擇。RISC 的主要特點包括快速的指令執行、簡化的硬體設計以及高能效比。ARM 架構是最著名的 RISC 架構之一。
相對於 RISC,CISC 架構著重於通過一套較為複雜的指令集直接支援高級計算操作,從而減少高級語言(包含C和C++)與機器語言之間的轉換需求。這一策略旨在簡化軟體和編譯器的開發過程,儘管這可能會導致更複雜的硬體設計和較高的功耗。CISC 的特色在於其功能強大的指令集和撰寫程式上的便捷性,但這同時伴隨著硬體的複雜性及增加的能耗。而CISC 的典型代表是 X86 架構的處理器。
三大CPU架構代表超級比一比
1.X86是PC市場的霸主,也是CPU架構的元老
X86 架構最初是由多個製造商生產,但隨著 Wintel(Windows和Intel的結合)的崛起,市場逐漸被英特爾主導,僅剩 AMD 和威盛等少數製造商。其以複雜指令集計算(CISC)著稱,也因此正如上一段所提及的 CISC 的優缺點分析,特色在於簡化工程師的開發過程,且其指令集的功能較強大,在單核心性能方面往往優於 ARM 處理器,然卻會導致更複雜的硬體設計和較高的功耗。目前主要在桌上型和伺服器市場表現突出,被廣泛應用於桌上型電腦、筆記型電腦、伺服器以及高性能計算機中。
由於 X86 會先用解碼器將複雜指令變成類似於 RISC 的指令,再給核心執行,其仍存在整體執行工作效率較差,處理資料速度較慢的缺點,然英特爾於 2023 年推出的精進版的純 64 位元 X86 架構,也就是 X86s,廢除昔日 16 位元和 32 位元模式,從一開機初始化就進入「純 64 位元模式」,不再從 16 位元或 32 位元切換至 64 位元,並且對於執行現有的 32 位元應用程式會以 64 位元下的相容模式去執行,也因此在效率上已有所改進。
2.ARM在移動設備上有卓越的優勢,並將進攻PC市場
ARM 架構則是由 ARM Holdings(現為軟銀集團的一部分)設計並授權給其他公司生產,蘋果、高通、聯發科等公司都設計了基於 ARM 架構的手機晶片,展現了 ARM 架構在省電和低功耗方面的優勢。由於 ARM 架構屬於精簡指令集計算(RISC)系統,最大特點是高能效比和低功耗,這使得它非常適合於電池供電的移動設備,如手機和平板電腦。
與 CISC 架構如 X86 相比, ARM 的 RISC 架構由於不需要複雜的晶片設計,可以在相同條件下提供更快的執行速度,大約是 CISC 的 2 到 4 倍。此外,RISC 架構使得晶片可以更小、功耗更低、成本更低,同時提高效能。這一特點在當前進入先進製程的半導體產業中尤為重要,使 ARM 架構成為開發新一代 PC 處理器的有力候選。
3.開源架構RISC-V提供了客製指令的擴充空間,且獲取成本較低
與前面兩者不同,RISC-V 架構是由加州大學柏克萊分校的研究人員發起,基於精簡指令集計算(RISC)理念,同時突出了其開源、模塊化和高度可擴展的特點。這種架構允許設計者根據特定應用的需求添加自定義指令,從而進行優化,並提供了與 ARM 架構相似的高能效比和低功耗特性。RISC-V 的指令集設計更為精簡,這不僅降低了硬體的面積和功耗,而且提高了運算速度和效率。其一致的指令格式簡化了電路設計,減少了資料處理時間,並提升了運算能力。
RISC-V 的開源性質使其在從微控制器到高性能計算等廣泛領域得到應用,包括嵌入式系統、物聯網(IoT)裝置、汽車電子、伺服器和專用加速器等。作為一個開源指令集,RISC-V 易於獲取資源,不受特定公司知識產權的限制,因此降低了成本。它的彈性顯著高於 X86 和 ARM 架構,因為它提供了客製指令的擴充空間,使得根據不同需求的特定設計成為可能,而這一點在 X86 和 ARM 處理器中較難實現。
受惠於AI發展與手機市場復甦,ARM架構滲透率有望進一步提升
ARM 公司整體營收可以劃分成兩個區塊,分別是權利金 License 和版稅 Royalty,前者為客戶於設計初期向 ARM 繳納的 IP 架構使用費,一般授權約 3 年,占 FY24Q3 總體營收 43%;後者則為客戶產品正式銷售後的分潤費用,從 Licenses 合約開始到貢獻 Royalty 約需到 4 年,占 FY24Q3 總體營收 57%。相較於 License,Royalty 較持續時間較長,也因此被視為 ARM 長期營收的主要推動因素。
License 的成長動能主要來自 ATA (ARM Total Access, 全部IP訂閱用戶)、AFA(ARM Flexible Access, 初期架構授權用戶) 客戶持續成長。FY24Q3 ATA 客戶增加5間至27間,AFA 客戶則增加6間至218間,可見需求仍十分強勁。而 Royalty 營收成長則主要由手機需求復甦和 Data Center 相關營收帶動,前面有提到過,ARM 的主要應用是在移動設備上,FY24Q3 15% Royalty 營收由 ARMv9 架構貢獻,目前主要搭載於主流高階手機及PC應用,v9架構授權金較v8提升一倍,考量現階段仍處於滲透初期,未來成長動能可期。
Nvidia 和 AMD 有望採用ARM架構,其市占版圖將進一步擴大?
據消息指出,Nvidia 有望於 2025 年推出以 ARM 架構為設計基礎的 CPU 產品,以搭載執行微軟 Windows 系統的 PC,背後原因是微軟幫助晶片商為 Windows PC 建構 ARM 架構處理器。自從為 Mac 電腦推出採用 ARM 架構的自研晶片 M 系列以來,蘋果效能顯著成長,帶動 PC 市占率在過去三年攀高,這使得除 Nvidia 以外,原採用 X86 架構的 AMD 也計劃使用 ARM 技術生產 CPU。若成功開發,在 Nvidia 與 AMD 的助力下, ARM 架構在市場上的應用比例將進一步提高,尤其是在 X86 統治的 PC 領域,ARM 的市占版圖有望進一步擴大。
ARM架構強勢進攻,Intel還撐得住嗎?
ARM 架構在市場上的應用逐年增廣,尤其近年在 AI PC 的強勢推動下,開始進攻 PC 領域的版圖,侵略 X86 賴以維生的老本行,這會使得 X86 架構在市場上的地位逐漸流失,最後淡出嗎?CMoney 研究團隊認為,ARM 架構要危害到 X86 架構的市場地位,仍有很長一段路要走,其原因有二:第一,更改架構須解決相容問題。X86 架構在 PC 市場已稱霸多年,因此對於設計者而言,繼續採用 X86 架構所能獲得的資源也最多。若要進行更改,則設計難度將大幅提高,且因為採用非 X86 架構,設計者必須克服許多軟體功能無法相容的問題。
其二,X86有其不易被替代的優勢。低功耗本來就不是英特爾擅長的市場,且X86 架構在電競市場已建立穩定基礎與地位,ARM 短期內恐難超越。此外,ARM 架構處理器主打簡單、省電兩大特色,這雖對於筆電市場是一大優勢,但對於以桌上型電腦為主,且訴求強大圖形運算功能的電競市場來說,現階段X86 架構處理器仍將會是主要選擇。
RISC-V架構在雙雄夾擊下,具備競爭力嗎?
在分析 RISC-V 的競爭優勢時,我們先來探討他對比 X86 架構以及 ARM 架構的優缺點。其優點正如先前所提及的,RISC-V 因指令精簡而更省電節能,而其開源的特性,也使得在中美科技戰爭的背景下,中國開始將重心逐漸轉移到訴求開源、開放的 RISC-V 架構上,因而成為RISC-V 架構的重要市場。根據 RISC-V 基金會資料指出,採用 RISC-V 架構的晶片中已有一半來自中國,RISC-V 基金會也有超過一半的高級會員來自中國。
然而,缺點的部分亦十分顯著。由於 RISC-V 發展時間較晚,PC 跟行動裝置市場基本已被其他兩大架構獨佔,因此在軟體相容性方面較差。另外,由於運行在 CPU 的軟體都是第三方業者進行開發,因此開發 CPU 軟體的業者必須要與設計 CPU 硬體的業者進行合作,否則軟體將無法運行在硬體上。如果有其他競爭者想切入 ARM 的市場開發自己的 CPU 指令集,競爭者必須先說服 CPU 業者學習使用 ARM 架構以外的進行軟體的開發,也因此其一直難以擴大市場。
儘管RISC-V架構目前在市場上的應用仍不足以構成強大生態系,但在AI推動下成長動能仍舊可觀
目前 RISC-V 的應用領域有別於 ARM 架構與 X86 架構,更多運用在物聯網與車用產業,然在其他市場亦逐漸推出相關產品,浮現在大眾視野。舉例來說,高通與 Google 展開合作開發「RISC-V Snapdragon Wear」晶片,是有史以來第一個宣布大眾市場的 RISC-V Android 晶片。此外,Meta 的 AI 推論晶片 MTIA,處理核心便是採用晶心科的 RISC-V 架構來打造,可用於提升推薦系統(如廣告、貼文、影片的排序)的運行效率。而 Google 則在自有 AI 處理器 TPU 旁加裝美國 RISC-V 新創 SiFive 開發的處理器,以加速機器學習的運作。然儘管在市場上已初露頭角,對比 X86 與 ARM 的版圖,RISC-V 的應用仍未能建立強大生態系。
不過在 AI 2023 年蓬勃發展的勢頭下,RISC-V 架構再次成為大眾關注的目標。可調整性高是RISC-V 架構成為 AI 應用明日之星的一大原因,AI 晶片運算需要訂製指令才能提高運算效率,雖然 ARM 架構有授權給 IC 設計業者使用,但是所有指令和功能基本上都已經由 ARM 定義好,對使用者來說可更改的空間很小。相比之下,IC 設計業者可以在 RISC-V 架構下,根據自身需求進行客製化設計,同時業界也有像是晶心科、SiFive 等擁有自主 RISC-V IP 的公司,可配合客戶做彈性調整,使得研發 AI 晶片的企業大幅提高導入 RISC-V 架構的意願。
根據領先的貿易分析師和業務開發公司 SHD Group 發布 2024 年 RISC-V 市場研究報告,其中提及到 2030 年 RISC-V SoC (單晶片系統) 出貨量預計將激增至 162 億顆,複合年增長率 (CAGR) 為 44%,而收入將達到 920 億美元,複合年增長率 (CAGR) 為 47%。而 RISC-V IP 收入亦有望同步增長,預計到 2030 年複合年增長率為 39%。展望AI位處發展初期,RISC-V 的自由度或可成為勝過另兩大巨頭的一大利器。
長期看好RISC-V架構的應用版圖,而AI PC之爭ARM恐難勝出
綜觀目前 CPU 架構市場局勢,要說三足鼎立的天下還尚不至於,目前大市場仍以 X86 與ARM 為主,然基於 RISC-V 對一般使用者來說,可塑性更強,因此對於一些尚不成熟、正在興起的產業來說,像是 AI PC 與車用等等,反而是更方便應用與開發的。CMoney 研究團隊認為,在中國市場積極開發與 AI 的雙重加乘下,RISC-V 長期具備良好的成長動能,且若能夠在中國建立起穩健生態系,則其未來發展性十分可觀。
而 ARM 與 X86 的邊緣 AI 架構戰爭,則主要是聚焦在 AI PC 的議題上,手機市場近兩年來未有突出表現,尤其 ARM 的大客戶蘋果目前正面臨中國市場的銷售危機,單單只仰賴行動裝置領域太過於危險,也因此 ARM 積極搶占 PC 領域的策略亦是十分合理。要進入該領域就必須挑戰該領域的大佬,英特爾的 X86 架構在 PC 領域仍存在先進者優勢,軟體相容性仍是 ARM在 Windows 應用上難以跨過的坎,且 AI PC 涉及更強大的晶片運算能力,ARM 架構是否能與 X86 架構的效能匹敵亦是一大難題。基於以上,CMoney 研究團隊認為,ARM 要在 AI PC領域挑戰 X86 恐難佔上風。
【產業動態】AI勢不可擋,X86、ARM、RISC-V三大CPU架構誰將成為市場主流? - 美股放大鏡 MAGNIFIER https://bit.ly/3VyGE87
ARM架構處理器的由來與優勢:從智慧型手機到超級電腦 - GIGABYTE 技嘉科技
台積電對此未回應,但先前台積電已幫輝達(NVIDIA)的 H200晶片提供4奈米製程代工,甚至連產出的晶片亦採用CoWoS封裝,堪稱整條供應鏈的最上游。針對黃仁勳與魏哲家的談話內容,外界推測可能與3/2奈米先進製程、CoWoS、SoIC、還有HBM等最新的技術有關,同時也趁著這個機會往下一個合作階段前進 https://bit.ly/4aOJM4c
所有3C產品包含手機電腦智慧型穿戴裝置、冰箱冷氣洗衣機任何家電需要用到IC的,幾乎台灣都有參一腳,真的是個科技寶島。
1:全球第一大"晶圓製造廠" 台灣(台積電)
2:全球第一大"電子代工廠" 台灣(鴻海)
3:全球第一大"筆電代工廠"台灣(廣達)
4:全球第一大"電競品牌"台灣(華碩)
5:全球第一大"手機晶片商"台灣(聯發科)
6:全球第一大"電源供應器廠"台灣(台達電)
7:全球第一大"手機鏡頭廠"台灣(大立光)
8:全球第一大"IC封測廠"台灣(日月光)
9:全球第一大"PCB電路板廠"台灣(臻鼎)
10:全球第一大"IC載板廠"台灣(欣興)
11:全球第一大"筆電電池模組廠"台灣(新普)
12:全球第一大"筆電金屬機殼廠"台灣(可成)
13:全球第一大"白牌交換器廠"台灣(智邦)
14:全球第一大"工業電腦廠"台灣(研華)
15:全球第一大"ROM唯讀記憶體廠"台灣(旺宏)
16:全球第一大"砷化鎵晶圓製造廠"台灣(穩懋)
https://www.threads.net/@funny_camping_/post/C79Bs7bPDdX
《韓國經濟TV》一則報導,標題為〈NVIDIA、台積電、AMD…為何在半導體產業裡臺灣不可或缺?〉
下面韓國網友的留言很有趣。
NVIDIA 臺裔美國人
TSMC 臺裔美國人
AMD 臺裔美國人
YouTube 臺裔美國人
Yahoo 臺裔美國人
聰明的臺灣人前往矽谷,聰明的韓國人正在進行醫生罷工。
力晶積成電子製造股份有限公司 - MoneyDJ理財網 https://bit.ly/4b0NXtD
營業項目與產品結構
2023年Q3營收比重為分離式元件產品(Discrete) 15%、高壓邏輯驅動晶片(HV) 21%、影像感測晶片(CIS) 2%、電源管理晶片(PMIC) 9%、嵌入式邏輯產品(IMC) 14%、快閃記憶體產品(Flash) 6%、動態隨機存取記憶體產品(DRAM) 32%。
【力積電搶AI商機1】力積電銅鑼12吋晶圓新廠落成 總投資總額上看3千億 - 鏡週刊 Mirror Media https://bit.ly/4bOkPak
【力積電搶AI商機2】新廠優先瞄準先進封裝、3D堆疊技術 CoWoS月產能可望達千片 https://bit.ly/3Vv7eyZ
什麼是 Logic IC 和 ASIC:瞭解積體電路的差別 - StockFeel 股感 https://bit.ly/3yXpN6k
積體電路
什麼是 Logic IC 和 ASIC:瞭解積體電路的差別
2021 年 5 月 5 日
特定應用積體電路(ASIC:Application Specific Integrated Circuit)
數位 積體電路 是目前積體電路市場最重要的部分,主要是所有的處理器,包括:中央處理器(CPU)、微處理器(MPU)、數位訊號處理器( DSP )、圖形處理器(GPU)、微控制器(MCU)都被歸類在數位積體電路,那麼數位積體電路除了處理器還有那些呢?
邏輯積體電路(Logic IC)
數位積體電路(Digital IC )又稱為「邏輯積體電路(Logic IC)」,主要是處理數位訊號(0 與 1)為主,依照產品特性可以分為下列兩大類,如<圖一>所示:
➤標準邏輯(Standard logic):使用電晶體 BJT( HBT )、 CMOS 、BiCMOS 排列組合形成組合邏輯閘 AND、NAND、OR、NOR、XOR、XNOR、NOT 等積體電路(IC),例如:CMOS 排列組合形成的 AND 閘標準邏輯,市場上著名的產品型號包括: 74AC 系列、74BC 系列(Bi-CMOS)、74HC 系列(CMOS)等。
➤特定應用積體電路( ASIC ):英文念做 `esik,是指 IC 設計工程師針對「特定的應用需要」或「特定的客戶需要」而設計出來的積體電路(IC),例如:有客戶想要製作一隻電子雞,但是市面上並沒有這種具備電子雞功能的積體電路(IC),因此必須由 IC 設計公司特別針對這位客戶去設計,這顆特別針對這位客戶「特定的應用需要」而設計出來的積體電路(IC)就稱為「特定應用積體電路(ASIC:Application Specific Integrated Circuit)」。
市場上有些積體電路(IC)是「廣泛應用」而非「特定的應用需要」或「特定的客戶需要」,例如:中央處理器(CPU)是由 Intel(INTC-US)自行設計與銷售,數位訊號處理器(DSP)是由 德州儀器 TXN-US 0.32 % (TI, TXN-US)自行設計與銷售,這類產品使用者只能接受而很難要求供應商針對使用者的需要修改,另外還有隨機存取記憶體(SDRAM、DDR)與快閃記憶體(Flash)等,這類積體電路(IC)都是廣泛應用的就不屬於 ASIC。
圖一、數位積體電路的種類
此外,邏輯積體電路(Logic IC)依照邏輯特性又可以分為下列兩大類:
➤組合邏輯(Combinational circuit):沒有記憶體儲存資料,所以組合邏輯的輸出只受當時輸入的影響,前面介紹的邏輯閘 AND、NAND、OR、NOR、XOR、XNOR、NOT 等,以及較複雜的解碼器(Decoder)、編碼器(Encoder)、多工器(Multiplexer)、解多工器(Demultiplexer)、算數邏輯運算單元(ALU)等都是屬於組合邏輯。
➤循序邏輯(Sequential logic):含有記憶體儲存資料,所以循序邏輯的輸出與輸入前的狀態有關,而輸入前的狀態必須儲存在記憶體內,常見的例子包括:正反器(FF:Flip Flop)、計數器(Counter)、閂鎖器(Latch)等都是屬於循序邏輯。
特定應用積體電路(ASIC:Application Specific Integrated Circuit)
特定應用積體電路(ASIC)又可以分為下列兩大類,如<圖一>所示:
➤全客製化積體電路(Full custom IC):由 IC 設計公司經過系統設計、邏輯設計、實體設計以後,交給 IC 光罩 2338-TW 3.68 % 與製造公司進行光罩製作與晶圓製造,再交給 IC 封裝與測試公司進行封裝與測試後才完成可以銷售的積體電路(IC)。這種積體電路(IC)必須歷經 IC 設計、IC 光罩與製造、IC 封裝與測試才能完成,所以製作成本很高,一但決定要做,就一定要製作足夠的數量才划算;有點類似傳統印刷產業裏的「製版印刷」,因為製版費用很高,一但決定要製版印刷,就一定要印刷很大的數量才划算。
➤半客製化積體電路(Semi custom IC):事先由廠商將大部分的邏輯 電路 設計完成並且製作成積體電路(IC),再賣給 IC 設計公司或系統整合商(SI:System Integrator),由工程師依照需要完成最後的電路連線工作。這種積體電路(IC)都是由大量的 AND 閘與 OR 閘與電子式可抹除可程式化 唯讀記憶體 (EEPROM)排列組合而成,IC 設計公司或系統整合商(SI)只要將這種製作好的半客製化積體電路(PLD、CPLD、FPGA)買來,再由工程師依照需要完成最後的電路連線工作,就完成可以銷售的積體電路(IC)了,不需要進行 IC 光罩與製造、IC 封裝與測試,因此成本較低可以少量製作。有點類似傳統印刷產業裏的「影印」,因為影印數量少的時候單價較低,如果影印的數量高達幾萬張,就要製版印刷才划算。
半客製化積體電路又可以分為可程式化邏輯元件(PLD:Programmable Logical Device)、複雜可程式化邏輯元件(CPLD:Complex Programmable Logical Device)、現場可程式化邏輯陣列(FPGA:Field Programmable Gate Array)、標準單元積體電路(CBIC:Cell based IC)等,如<圖一>所示,設計與製造的廠商多為國外大廠,例如:亞爾特(Altera)、賽靈思(Xilinx, XLNX-US)、萊迪斯(Lattice, LSCC-US)等公司。
【請注意】上述內容經過適當簡化以適合大眾閱讀,與產業現狀可能會有差異,若您是這個領域的專家想要提供意見,請自行聯絡作者;若有產業與技術問題請參與社群討論。
------------------------
電子科技
處理器的種類:CPU、GPU、MCU、DSP、MPU各是什麼?|數位積體電路IC介紹
數位積體電路(Digital IC)
中央處理器(CPU:Central Processing Unit)
微處理器(MPU:Micro Processing Unit)
數位訊號處理器(DSP:Digital Signal Processor)
圖形處理器(GPU:Graphic Processing Unit)
微控制器(MCU:Micro Control Unit)
現場可程式化邏輯陣列(FPGA:Field Programmable Gate Array)
特定應用積體電路(ASIC:Application Specific Integrated Circuit)
展開
數位積體電路(Digital IC)
用來處理 數位 訊號的 積體電路 稱為「數位積體電路(Digital IC )」,目前都是以「 矽晶圓 」製造,主要是用來處理 0 與 1 的加減乘除運算與儲存工作,其中 處理器 包括:中央處理器( CPU )、數位訊號處理器( DSP )、微處理器( MPU )、 微控制器 ( MCU )等;記憶體包括:靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)等;以及其他處理數位訊號的包括:標準邏輯積體電路(Standard logic IC)、特定應用積體電路( ASIC )等,台灣主要的數位積體電路設計公司包括: 聯發 1459-TW 1.83 % 科技(2454-TW)、聯詠科技(3034-TW)、 瑞昱 2379-TW 1.12 % 半導體、群聯電子(8299-TW)等公司。
這裡我們不討論記憶體,只討論用來處理 0 與 1 的加減乘除運算工作的積體電路,如<圖一>所示,可以分為處理器(Processor)、半客製化積體電路(Semi custom IC)、全客製化積體電路(Full custom IC)三大類:
➤處理器(Processor):是指可以利用程式決定運算的內容與結果,這裡的程式是指一般軟體工程師所撰寫的軟體程式(例如:C 語言、Java 語言),簡單的說,就是程式設計師寫什麼程式它就做什麼事,功能完全沒有固定,功能沒有固定代表沒有「客製化」,因此我習慣把它稱為「通用積體電路(General purpose IC)」或「無客製化積體電路(Non custom IC)」。
➤半客製化積體電路(Semi custom IC):是指可以利用程式決定「部分」運算的內容與結果,這裡的程式又稱為「硬體描述語言(例如:Verilog、VHDL)」,一般都是由電子電機工程師選寫,因為功能部分沒有固定,但是部分是固定的(客製化),因此稱為「半客製化(Semi custom)」。
➤全客製化積體電路(Full custom IC):是指功能完全固定,針對「特定的應用需要」或「特定的客戶需要」而設計出來的積體電路(IC),又稱為「特定應用積體電路(ASIC:Application Specific Integrated Circuit)」。
處理器的種類
中央處理器(CPU:Central Processing Unit)
中央處理器(CPU)屬於「複雜指令集處理器(CISC)」,是利用「加法」為主來進行所有的運算工作,可以在一個時脈週期內進行一次加法運算,而乘法則必須使用「數個加法運算」才能達成。舉例來說:假設要花費 10 個加法運算才能完成 1 個乘法運算,當 CPU 的工作頻率為 1GHz(1G = 10 億),則使用這種 CPU 每秒鐘可以完成 10 億次「加法運算」,但是每秒鐘只能完成 1 億次「乘法運算」。CPU的代表廠商包括: 英特爾 INTC-US 1.05 % 、超微半導體(AMD, AMD-US)等。
CPU 的特色包括:工作頻率高、運算功能強、 CMOS 數目多、晶片面積大、成本高、耗電量大,目前大多應用在個人電腦、筆記型電腦、工作站、伺服器等較高階的產品上,這些產品另外還有一個共同的特色,由於 CPU 耗電量大產生廢熱,因此大部分必須使用風扇來散熱。
微處理器(MPU:Micro Processing Unit)
微處理器(MPU)屬於「精簡指令集處理器(RISC)」,基本上也是利用「加法」為主來進行所有的運算工作,可以在一個時脈週期內進行一次加法運算,而乘法則必須使用「數個加法運算」才能達成。MPU 的代表廠商包括:安謀國際(ARM)或 MIPS 公司等,這兩家公司本身不賣處理器,只授權處理器的設計圖。
➤ARM 處理器:由 ARM 公司所設計,廣泛地應用在汽車電子、多媒體、影音娛樂等工業或消費性電子產品上做為「應用處理器(AP:Application Processor)」,著名的產品型號包括:ARM7、ARM9、AMR11、Cortex-A8/A9/A15 等。
➤MIPS 處理器:由 MIPS 公司所設計,大多應用在網路通訊等電子產品上,例如:ADSL 數據機、纜線數據機(Cable modem)、交換器(Switch)、路由器(Router)、閘道器(Gateway)等,著名的產品型號包括:MIPS32、MIPS64等。
MPU 的特色包括:工作頻率較低、運算功能較差、晶片面積小、CMOS 數目少、成本低、耗電量小,比較適合用來作為「嵌入式處理器(EP)」,這些產品共同的特色就是不能使用風扇,而且對成本的控管比較嚴格。由於半導體製程技術的進步,目前微處理器(MPU)的工作頻率也愈來愈高,和中央處理器(CPU)已經很接近,而智慧型手機、平板電腦的功能也愈來愈接進個人電腦,甚至已經威脅到個人電腦的市場了,在可以預見的未來,MPU 的市場仍然持續成長,但是CPU 的市場則很難成長,甚至已經開始衰退了。
【名詞解釋】嵌入式系統與嵌入式處理器
➤ 嵌入式系統 (Embedded system):完全嵌入在系統內部,專為特定應用而設計的電子產品,根據英國電器工程師協會(UK Institution of Electrical Engineer)的定義,嵌入式系統是控制、監視或輔助設備、機器或用於工廠運作的裝置。
➤嵌入式處理器(EP:Embedded Processor):上述嵌入式系統的電子產品所使用的處理器我們泛稱為「嵌入式處理器(EP)」。
簡單的說,個人電腦是屬於通用的電腦系統,每一台個人電腦都是安裝 Windows 或 Linux 作業系統,因此可以安裝不同的應用程式而進行不同的功能;嵌入式系統通常使用特別的作業系統,而且只能執行預先設定的工作,例如:銀行的自動櫃員機、航空電子、汽車電子、電信交換機、網路裝置、印表機、影印機、傳真機、計算機、家用電器、醫療裝置等。
數位訊號處理器(DSP:Digital Signal Processor)
數位訊號處理器(DSP)屬於「精簡指令集處理器(RISC)」,它的核心為「乘加器(MAC:Multiply Add Calculator)」,可以在一個時脈週期內進行一次「乘法與加法」運算。舉例來說:假設 DSP 的工作頻率為 1GHz(1G = 10 億),代表每秒鐘可以同時完成 10 億次「乘法與加法運算」。DSP 的代表廠商包括: 德州儀器 TXN-US 0.32 % (TI, TXN-US)、亞德諾(ADI, ADI-US)、 恩智浦半導體 NXPI-US 0.04 % 、飛思卡爾(Freescale, 已被 NXP 收購)等。
DSP 的特色包括:工作頻率高、運算功能強、晶片面積大、CMOS 數目多、成本高、耗電量大,一般來說 DSP 由於一個時脈週期內可以進行一次乘法與加法運算,因此工作頻率不需要像 CPU 那麼高,例如:Intel 的 CPU 工作頻率可以高達 4GHz,但是 TI 的 DSP 工作頻率只需要 2GHz,雖然看起來 DSP 好像比 CPU 或 MPU 功能強大,但是使用到的 CMOS 數目很多,通常價格並不便宜。
DSP 適合用來進行各種乘加運算(SOP:Sum of Products),例如:有限脈衝響應濾波運算(FIR:Finite Impulse Response)、無限脈衝響應濾波運算(IIR:Infinite Impulse Response)、離散傅立葉轉換(DFT:Discrete Fourier Transform)、離散餘弦轉換(DCT:Discrete Cosine Transform)、點積運算(Dot product)、卷積運算(Convolution),以及矩陣多項式的求值運算等。
大家可能會好奇,這些運算都用在那些地方呢?基本上多媒體的影音壓縮技術(MP3、JPEG、MPEG 等)、語音辨識(Voice recognition)、噪音去除(Noise reduction)、 影像辨識 (Pattern recognition)、通訊系統(3G WCDMA/4G OFDM)等訊號處理演算法大部分都是乘加運算(SOP),因此使用 DSP 比 CPU 或 MPU 更合適,假設要花費 5 個加法運算才能完成 1 個乘法運算,則在進行乘加運算(SOP)的時候 DSP 的效能是 CPU 或 MPU 的5倍。
圖形處理器(GPU:Graphic Processing Unit)
圖形處理器( GPU )是專門用來處理個人電腦、伺服器、遊戲機甚至智慧型手機上的影像運算工作,主要就是把 3D 的物件表現在平面的顯示器上,可以分擔中央處理器(CPU)或微處理器(MPU)的影像處理工作。GPU的代表廠商包括: 輝達 NVDA-US 0.09 % 、超微半導體等,由於嵌入式系統的發展,許多處理器廠商開始將 GPU 內建在處理器內變成系統單晶片(SoC),例如:安謀國際將 GPU 內建在其 MPU 中,型號為 Mali-300/400/450/T604/T642 等。
圖形處理器(GPU)在二十年前曾經是所有電腦的顯示器必備的處理器,後來由於圖形處理器的功能慢慢被整合到英特爾的晶片組內,使得 GPU 的需求量大幅下降,曾經讓銷售 GPU 的廠商經營困難。近年來人工智慧(AI:Artificial Intelligence)興起,科學家們發現人工智慧的演算法使用 GPU 運算的效能比 CPU 高出大約 100 倍以上,因此開始大量使用 GPU 進行人工智慧運算,使得銷售 GPU 的廠商重新找到殺手級的應用而前景看好,由於人工智慧的演算法目前都是由雲端的「伺服器(Server)」來處理,因此 GPU 主要是銷售給製作伺服器的廠商。
【概念說明】處理器的核心(Core)
目前 Intel 的 CPU 常見的最多做到 8 核心,但是 Nvidia 的 GPU 已經做到 5,120 核心(Volta Tesla V100),看起來似乎 Nvidia 的技術大幅領先 Intel,其實不是這樣看的,CPU 的核心比 GPU 的核心複雜很多,簡單的說,我把 CPU 的核心稱為「大核心」,是設計用來做複雜運算功能的;GPU 的核心稱為「小核心」,適合處理簡單、大量、重複的運算工作,就這麼巧,區塊鏈採礦、人工神經網路都符合這三個條件,所以大家拿 GPU 來運算囉!
微控制器(MCU:Micro Control Unit)
微控制器(MCU)屬於「精簡指令集處理器(RISC)」,一般用來稱呼最低階的處理器,基本上也是利用「加法」為主來進行所有的運算工作,可以在一個時脈週期內進行一次加法運算,而乘法則必須使用「數個加法運算」才能達成。MCU 的代表廠商眾多包括:德州儀器、瑞薩(Renesas, 6723-JP)、飛思卡爾(Freescale)、Atmel、Microchop(MCHP-US)、英飛淩(Infineon, IFX-DE)、富士通(Fujitsu, 6702-JP)、 恩智浦 、意法半導體(STM, STM-US)、三星(Samsung, 005930-KR)等。
MCU 的特色包括:工作頻率低、運算功能差、晶片面積小、CMOS 數目少、成本很低、耗電量很小,應用範圍很廣,例如:電子產品的按鍵控制、鍵盤滑鼠、電子錶、電動牙刷、搖控器、血糖計、血壓計、電錶、煙霧偵測器、馬達控制、車用電子等,幾乎所有的電子產品內都有微控制器。
現場可程式化邏輯陣列(FPGA:Field Programmable Gate Array)
事先由廠商將大部分的邏輯 電路 設計完成並且製作成積體電路(IC),再賣給 IC 設計公司或系統整合商(SI:System Integrator),由工程師依照需要完成最後的電路連線工作,屬於「半客製化積體電路(Semi custom IC)」,所謂「半客製化」的意思就是這種積體電路已經製作完成了「一半」,至於它具有什麼功能則由 IC 設計公司或系統整合商的工程師來決定,此外與 FPGA 功能類似的還有可程式化邏輯元件(PLD:Programmable Logic Device)、複雜可程式化邏輯元件(CPLD:Complex Programmable Logic Device),如<圖一>所示。
FPGA 是由大量的 AND 閘與 OR 閘與電子式可抹除可程式化 唯讀記憶體 (EEPROM)排列組合而成,IC 設計公司或系統整合商(SI)只要將這種製作好的半客製化積體電路買來,再由工程師依照需要完成最後的電路連線工作,就完成可以銷售或具有特定功能的積體電路(IC)了,因此成本較低可以少量製作。有點類似傳統印刷產業裡的「影印」,因為影印數量少的時候單價較低,如果影印的數量高達幾萬張,就要製版印刷才划算。FPGA 的設計與製造的廠商多為國外大廠,例如:亞爾特(Altera)、賽靈思(Xilinx, XLNX-US)、萊迪斯(Lattice, LSCC-US)等公司,其中 Altera 已經被 Intel 併購。
特定應用積體電路(ASIC:Application Specific Integrated Circuit)
將數位訊號的編碼與解碼、壓縮與解壓縮、區塊鏈採礦、人工神經網路等演算法直接使用電晶體(CMOS)製作成特定功能的積體電路(IC),也就是 IC 設計工程師針對「特定的應用需要」或「特定的客戶需要」而設計出來的積體電路(IC),稱為「特定應用積體電路(ASIC:Application Specific Integrated Circuit)」,英文念做 `esik。ASIC 只能進行固定的數位訊號運算工作,使用者無法使用軟體更改功能,使用上有許多限制,但是由於直接使用電晶體(CMOS)執行運算工作,不需要大量的軟體程式,因此執行效能最高,運算速度最快。
Google (GOOGL-US)公司開發的人工智慧機器學習軟體框架(Software framework)稱為「TensorFlow」,這個軟體框架當然可以使用 CPU 或 GPU 來執行,不過為了再提高效能,Google 公司自行設計了一款「張量處理器(TPU:Tensor Processing Unit)」,雖然他們稱為「處理器」,不過 TPU 其實更像是專門為人工智慧機器學習和 TensorFlow 軟體框架這種「特定應用」而開發的「積體電路」,因此比較像是 ASIC。這樣講大家是不是對 ASIC 有更深的認識了呢?
由於 ASIC 是將數位訊號的編碼與解碼、壓縮與解壓縮、人工智慧等演算法直接使用電晶體(CMOS)製作而成,使用者無法使用軟體更改功能,因此晶片製造商通常只針對數量大的應用才會推出這種產品,例如:比特幣礦工最早使用 Intel 或 AMD 的中央處理器(CPU)產品來挖礦,2013 年礦工開始使用圖形處理器(GPU)、現場可程式化邏輯陣列(FPGA),後來礦工愈來愈多市場需求量大增,開始有廠商推出比特幣採礦專用的特定應用積體電路(ASIC)。
市場上有些積體電路(IC)是「廣泛應用」而非「特定的應用需要」或「特定的客戶需要」,例如:中央處理器(CPU)是由 Intel 自行設計與銷售,數位訊號處理器(DSP)是由德州儀器自行設計與銷售,這類產品使用者只能接受而很難要求供應商針對使用者的需要修改,另外還有隨機存取記憶體(SDRAM、DDR)與快閃記憶體(Flash)等,這類積體電路(IC)都是廣泛應用的就不屬於 ASIC。
【重要觀念】
➤上面的分類方式只是為了讓大家容易了解各種處理器的特色,但是別忘了,每一種軟體都同時含有加法與乘法運算,只是多少的問題而已;同樣的道理,CPU 或 MPU 雖然是利用「加法」為主來進行所有的數學運算工作,但是 Intel 或 ARM 也已經將支援乘法與除法運算相關的指令集放入處理器內,只是在效能上和數位訊號處理器(DSP)還有一段差距而已!
➤一般只有中央處理器(CPU)、數位訊號處理器(DSP)、微處理器(MPU)、圖形處理器(GPU)、微控制器(MCU)等可以使用軟體改變運算內容,使用彈性比較大的被歸類為「處理器(Processor)」,不過隨著技術演進,現場可程式化邏輯陣列(FPGA)與特定應用積體電路(ASIC)也整合部分處理器的功能進去,因此愈來愈像處理器了!
【請注意】上述內容經過適當簡化以適合大眾閱讀,與產業現狀可能會有差異,若您是這個領域的專家想要提供意見,請自行聯絡作者;若有產業與技術問題請參與社群討論
處理器的種類:CPU、GPU、MCU、DSP、MPU各是什麼?|數位積體電路IC介紹 - StockFeel 股感 https://bit.ly/3XmPMhk
三星大力進軍邏輯晶片,可能的機會與挑戰
2019年6月10市場報導 : 三星大力進軍邏輯晶片,可能的機會與挑戰 - 科技產業資訊室(iKnow) https://bit.ly/4bTxkBv
圖、三星大力進軍邏輯晶片,可能的機會與挑戰
隨著三星於2019年4月24日宣布將在2030年投資133兆韓元(1114億美元)用來促進系統半導體(或稱為邏輯晶片),南韓政府於4月28日也宣布將挹注1兆韓元在邏輯晶片的研發。
然而,從內存記憶體轉向邏輯晶片將是一個嚴峻的挑戰。因為,晶片設計要求不同,還有行銷策略也是截然不同的,對於既有的players來說,他們很可能會抵制三星進入他們的地盤。儘管,三星在記憶體業務佔據了全球市場60%以上,但在邏輯晶片領域的表現卻遠遠落後,只佔市場的3.4%。
邏輯晶片整合CPU、AP及相機感測,變得更複雜
目前,邏輯晶片主要用於行動電話和汽車。內存記憶晶片是儲存了智慧手機、個人電腦、伺服器等的資料。而邏輯晶片卻更複雜,包括執行複雜的功能,如計算和控制。邏輯晶片包括計算機中使用的中央處理單元(CPU)、智慧手機和平板電腦中使用的應用處理器(AP)、汽車訊息娛樂系統的AP以及相機中使用的圖像感測器。
由於,邏輯晶片更重視設計,而且更具有多樣性,因此它們商品化的程度較低,也不太容易大批量產,也較不受到記憶體設備行業的周期性衰退所困擾。這也正是三星想擺脫目前在記憶體業績不佳的主因之一,甚至還嚴重影響到南韓整體經濟。
專家表示,邏輯晶片業務的成功取決於不僅僅是技術能力,而是保護客戶的利益,因此三星預計將投入大筆資金來收購相關技術的公司,並包括先進封裝及系統測試。
高通是用AP的手機公司,也是全球領先的邏輯晶片無晶圓廠。台積電(TSMC)是代工生產高通的邏輯晶片。英特爾的商業模式與三星電子有所不同。英特爾作為集成設備製造商(IDM),從設計、製造、封裝和測試晶片一手包。
基於,邏輯晶片的業務需要非常先進的晶片設計技能來滿足客戶的各種需求。因此,三星決定在研究和研發方面投入更多,而不是在設備方面。該公司將在12年內投資60兆韓元於設備,但同期的研發支出將達到73兆韓元。
設計製造與代工業務的利益衝突
台積電是生產晶圓的純晶圓代工企業,在全球代工市場居領先地位,市佔率50%以上。為了與台積電競爭,三星電子目前正在首爾華城建設一家代工廠,投資金額達6兆韓元。為了確保晶片處理技術的競爭優勢,將採用EUVL(極紫外光刻)的7奈米製程,以便更準確地繪製電路。
但三星電子希望成為一家從生產、封裝和測試的IDM代工業務廠。考慮到無晶圓廠(晶片設計)和代工公司之間的保持緊密關係,這並不容易,恐有利益上衝突發生。三星的產品組合,從晶片到AP及手機生產,在擴展其代工業務時,可能會有負面看法,因為信任及利益衝突將是一個因素。因為,無晶圓廠企業可能不樂意將設計好的晶片生產,委託給競爭對手三星來代工生產。然而,代工合約是長期的合約,持續三到五年,與客戶之間的信任關係很重要。就像,三星幫蘋果代工手機,而自己也出產品牌手機。
根據半導體市場研究公司IBS的數據,截至去年(2018)年底,三星的邏輯晶片代工市場占有率達14.9%。
三星的代工業務正大力行銷。自2017年以來,三星一直在美國、中國和歐洲每年舉辦代工論壇。從初期無晶圓公司持懷疑態度,但現在他們開始詢問生產成本,客戶希望透過擴大供應鏈來達到價格競爭。由於沒有多少公司擁有相關代工技術,所以三星的代工市場機會會再增加,僅是遲早的事。
三星建邏輯晶片代工生態系統
由於南韓市場規模小,缺乏邏輯晶片代工廠,三星在推動其代工業務的同時,決定支持南韓中小型無晶圓廠,因過去三星先選擇與海外大廠合作。它計劃提供相關IP,例如與設計相關的分析工具和軟體,以便南韓無晶圓廠客戶可以增強其競爭優勢,並縮短開發週期。好處是三星可以知道並利用這些中小企業設計的少量產品。
南韓政府還宣布,到2030年,將投入1兆韓元用於研究和開發計劃,以試圖培育系統半導體(邏輯晶片)人才。該計劃旨在建立邏輯晶片行業的國內生態系統,包括半導體設計和製造。
專家表示,南韓創建廣泛的生態系統是培育邏輯晶片產業的關鍵,以完成過去未成功的半導體策略。同時,應用擴及生物晶片、圖形和電信等領域設計系統半導體的技術。
三星的策略是先取得車載資訊邏輯晶片獲認證,再拚代工
三星已經開發出邏輯晶片,但規模小很多。三星一直在開發車用系統晶片,但尚未成功銷售,因為尚未獲得安全認證;也在為行動裝置生產AP,但它們僅用於本地市場。三星出口手機還是使用高通的晶片組,受限於各國法規的差異。
然而,事情正在發生變化。這個月(2019/6),三星獲得了德國測試認證機構TUV Rheinland的國際安全標準「ISO 26262」認證,這是用於車輛半導體的開發和管理流程的規範。有了這個認證,三星將為奧迪提供其「Exynos Auto V9」,這是一種用於全面控制車載資訊娛樂系統的車輛的邏輯晶片。然而,歐美汽車製造商可能會擔心三星最終會進入汽車行業,而對三星產生疑慮。
至於,CPU代工業務,三星為伺服器開發了CPU,但結果並不好,因為認證的問題,將會很難在該領域快速發展。但卻是吸引AMD的好時機,因為目前競爭對手英特爾的先進製程發展速度似乎不如預期。
三星在行動電話相機中使用的圖像感測器的代工,是具有優勢的,被認為是現有系統半導體產品系列中能提供較佳產品。截至去年(2018)年底,三星在圖像感測器方面的全球市占率為19.6%,僅次於日本的索尼。市場報導 : 三星大力進軍邏輯晶片,可能的機會與挑戰 - 科技產業資訊室(iKnow) https://bit.ly/4bTxkBv
黃仁勳說過:「偉大並非智識,是來自品格,品格也不是來自聰明的人,而是來自承受苦難的人。」一個企業能不能不斷的成長,其中關鍵在於領導者是否能夠不斷的接受失敗與挫折,不停的跌倒再爬起。
隨著科技日新月異,各行業漸漸導入AI技術,甚至許多學校課程都將其納入,期望學生可以接軌AI跟上時代的進步與腳步。在社會中,我們需要的不僅僅是理工的邏輯思考,同時也需要人文的道德價值與思辯。未來教育如何達到兩者的平衡,也是需要進一步思考探索的重要議題。
如雙面刃般的AI浪潮,真的只會「切到」不會寫程式的文組生嗎? - TNL The News Lens 關鍵評論網 https://bit.ly/3RkqNYw
文:蔡采紋
隨著全台掀起黃仁勳旋風,台灣站在AI的風口浪尖。黃仁勳近期在台灣發表關於人工智慧(AI)的演講,也引發文組生的就業焦慮,擔心自己會被AI取代或被社會淘汰。
一名台大女學生在大學生論壇提到「不是理工、不會程式的公務員體系,之後就是被淘汰的那群人了⋯⋯」,但筆者認為或許被取代的就業焦慮不僅出現在文組,同時理工科系的學生也會出現就業焦慮。
隨著科技日新月異,各行業漸漸導入AI技術,現在ChatGPT、Gemini等AI聊天機器人受到重視,甚至許多學校課程都將其納入,期望學生可以接軌AI跟上時代的進步與腳步。
科技成為社會的主流,也造就了文組科系在社會中成為弱勢,被貼上低薪、無用、易被取代的標籤。在台灣社會中,多數人對理工科系充滿期待,認為就讀理組之後進入科技業成為工程師、或成為醫師、牙醫,為之後的年薪百萬邁出第一步。
科技進步對文組學生是危機也是轉機
也因為這樣的環境,文組學生儼然成為弱勢,也想轉職進入科技業。
然而,科技的進步、聊天機器人上線,學會程式語言的門檻降低,甚至有時候只要「看得懂」程式語言、會下指令就好,不一定要從頭寫出程式語言。
因此筆者產生的疑問是,在科技發展下倘若某些理組科系在學習期間主要以程式語言、程式設計為主,那在AI機器人推出並且不斷進步的今天,未來的他們還剩下什麼?
根據教育部截至2023年7月的統計,各校已開設305門人工智慧相關課程。不僅開設專門課程,陽明交通大學也鼓勵各學門將AI應用納入教學。
科技進步的今日,看似對理組學生是莫大的機會,但一體兩面的是程式設計的門檻降低,會讓文組學生更容易碰到門檻;理組學生面對AI的進步、增加的競爭者則需要承受更大的壓力。
回歸人本避免被AI取代
AI浪潮下,看似每個人都面臨到可能被取代的危機,有什麼職業是可以避免被AI取代?筆者認為,目前AI科技僅限可以解決具有解答的問題,然而人與人之間複雜的關係網絡及情緒都不是現有的科技能夠解決的。
現有的AI不具有思考、創意、人文社會的道德判斷。因此,在AI來勢洶洶的今日,我們更應該回歸以「人的價值」進行思考創造人本價值。
AI或許可以解決程式的錯誤碼、分析大量數據,但卻無法給予數據解釋意義,無法透過創意策略舉辦活動,也無法共情、社交。
而這些AI無法做到的都是人文社會學科,也就是文組所學習研究的主要領域。AI的產生是為了人類社會的進步,帶給人類更方便的社會,不論是理工科技還是人文社會,終究會回到原點,回到人與人相處的本質。
在未來社會需要的是跨領域人才
綜合以上,筆者認為現在的教育制度已經無法單純以文組、理組的二分法一概而論,兩者之間的界線已經愈趨模糊。
文組為了因應資訊社會的變遷,需要學習理組的程式語言與邏輯思考;而理組也不可能僅憑寫出程式或資訊,而需要回過頭思考人本與創意發想。
在社會中,我們需要的不僅僅是理工的邏輯思考,同時也需要人文的道德價值與思辯。未來教育如何達到兩者的平衡,也是需要進一步思考探索的重要議題。
如雙面刃般的AI浪潮,真的只會「切到」不會寫程式的文組生嗎? - TNL The News Lens 關鍵評論網 https://bit.ly/3RkqNYw
德语媒体:没有台湾 就没有人工智能 – DW – 2024年6月11日 https://bit.ly/3yYHa6G
(德國之聲中文網)《新蘇黎世報》發表長篇報導寫道,沒有台灣,全球晶片和電腦供應鏈就會陷入癱瘓。正如參加台灣國際電腦展的英偉達(Nvidia)總裁黃仁勳所說的那樣,台灣為全球人工智慧技術奠定了基礎。這篇題為《沒有台灣,就沒有人工智慧》的文章寫道:
「人工智慧開發者需要算力更強、能耗更低的新一代晶片,而這類晶片的大約90%來自台灣。就連美國晶片巨頭英特爾都在讓台灣競爭對手為其最新晶片Lunar Lake生產零件,因為美國人目前尚不具備最新的生產技術。
對台灣晶片的高度依賴,令各國政府高度緊張。由於來自中國的威脅,台灣已成為當今世界最危險的危機熱點。因此各國不惜花費巨資希望晶片企業入住本國,以實現晶片供應的多元化。有些國家已經取得了初步成果,例如德國就成功讓英特爾和台積電在德國開設工廠。
但問題在於:人工智慧的興起,有可能進一步增強各國對台灣晶片的依賴。 AMD在台灣投資了研發中心。而作為帶給台灣的禮物,英偉達總裁黃仁勳也宣布了兩個大型投資計畫。他表示將在台灣再建一座大型研發中心,並將總計四台新型超級電腦中的兩台建在台灣,用於英偉達的內部研發工作。
《新蘇黎世報》:台灣在晶片技術領域擁有完善的生態環境。圖為新竹工業區的工作場景。《新蘇黎世報》:台灣在晶片技術領域擁有完善的生態環境。圖為新竹工業區的工作場景。
《新蘇黎世報》:台灣在晶片技術領域擁有完善的生態環境。圖為新竹工業區的工作場景。圖片來源: Tao-Chuan Yeh/AFP/Getty Images
台灣國際電腦展期間,英特爾總裁基辛格(Pat Gelsinger)更是明確表示,台灣在全球供應鏈中不可或缺的重要地位,不僅得益於台積電,而更是歸功於台灣電腦工業的整體生態環境。 」
《新蘇黎世報》指出,儘管面臨來自英特爾和三星等老牌企業的競爭壓力,但台灣在高階晶片領域仍具有難以撼動的霸主地位。
「這也意味著,高階晶片生產能力的絕大部分,仍將留在台灣本土。同時,只有台灣才擁有兩奈米及以上晶片的生產線。台灣在這一專業技術領域的生態環境以及供貨商網絡,也是其他國家無法取代的。
總而言之,阻止台灣被中國吞併,關係到全世界的切身利益。因為,一旦失去了台灣的專業技術,不僅會威脅到全球晶片工業,人工智慧的光環也將黯然失色。 」
德语媒体:没有台湾 就没有人工智能 – DW – 2024年6月11日 https://bit.ly/3yYHa6G
名家論壇》黎榮章/黃仁勳來台颳旋風 聲量竟碾壓總統賴清德? | 名家論壇 | 要聞 | NOWnews今日新聞
留言列表