《M報》#486:Vera Rubin 正式亮相|輝達自動駕駛模型|M觀點指數更新
【M觀點】#267 精華摘要(點擊標題能觀看網頁版)
【投資健康的基本面:從久坐不累開始】
每天一坐就是好幾個小時,你有沒有發現:真正讓人累的,往往不是工作本身,而是「坐得不對」。
很多上班族都有類似經驗──椅子明明不差,但坐久了就是覺得不穩、腰痠、屁股壓力大;於是開始加軟墊、記憶棉,結果反而更悶、更滑、越坐越歪。這也是 Miula 我會特別想推薦 Roichen 的穩姿坐墊的原因。
如果你已經知道 Roichen 的正脊坐墊、優雅椅,那穩姿坐墊就是一個完全不同定位、卻同樣實用的選擇。它不是拿來「矯正姿勢」,而是取代一般椅子上那塊隨便買的軟墊,讓你坐得穩、坐得久、而且真的舒服。
🔴 最新的穩姿坐墊有什麼特色:
◼️高密度 Q 彈泡棉: 提供強力支撐且不易扁塌,完美分攤身體重力,不再讓壓力集中在坐骨
◼️符合身型凹槽: 獨家設計讓屁股和大腿精準定位,坐下去即穩穩托住,自然減少翹腳頻率
◼️內建散熱系統: 7 個透氣孔洞搭配涼感表布,解決久坐積熱問題,維持腦袋冷靜高效
◼️入門首選: 體感舒適度極高,適合第一次嘗試姿勢輔助坐墊、或對坐感極為挑剔的使用者
◼️男女分款設計: 品牌堅持不使用公版,依據男女骨盆生理結構差異專屬開發,提供最精準的支撐力。
🔴 經典:正脊坐墊 & 優雅椅 – 強力支撐的風控系統
正脊坐墊: 市售唯一依男女體型設計,適合坐姿容易癱軟、需要強力將骨盆立正的使用者
優雅椅: 獨家 6 度傾斜底座,讓身體自然維持良好坐姿,平價擁有專業人體工學等級
👉 如何選擇?
追求 日常舒適、軟 Q 釋壓、高 CP 值 ➔ 選 【穩姿坐墊】
需要 強力支撐、矯正歪斜坐姿 ➔ 選 【正脊坐墊 / 優雅椅】
趕快下單,就享有 M 觀點粉絲獨家優惠。對每天久坐工作的你來說,這絕對是一個很實際、也很值得的投資。
🛒 【M觀點】粉絲專屬 52 折起: https://s.add.one/5bkguu
(品牌限定優惠,請使用 Fb、Line、手機號碼登入)
【Vera Rubin 正式亮相】
◼ Vera Rubin Rubin CES 亮相
• 今年剛開年,大家都在看 CES。各家廠商當然也都發新產品,但老實講,外界真正盯著看的,還是黃仁勳那場 Keynote。因為他不是在講一張顯卡、也不是講一台機器,而是在講下一代 AI 運算平台到底會長什麼樣子。那場演講有很多亮點,但我今天要抓的重點很明確:Rubin 的效能到底是怎麼來的。
• 台灣很多科技、科技投資節目,通常只會跟你講「Rubin 比 Blackwell 成長多少」。這當然沒錯,但問題是,大家會把它當成一個「結果」,卻很少人去拆「為什麼」。而我看 AI 的習慣跟很多人不太一樣,我最在意的不是數字本身,而是那個 Why:為什麼 FP16 看起來只多 60%?為什麼 NVFP4 到推論的時候可以多到 400% 甚至 5 倍?你要知道理由,才知道這是灌水、是行銷、還是真的技術斷層式的進步。
• 這些細碎知識當下聽起來不一定會立刻幫你賺到錢,我也老實說,我不知道你聽到這些要幹嘛。但投資跟判斷很多時候就是這樣:你不是靠某一次看到某一個「單一數字」去做決策,你是靠大量細碎知識慢慢拼出一個世界觀。世界觀一旦形成,未來在某個關鍵時刻,你做決策的品質就會差很多。這也是為什麼我常講特斯拉的 FSD 不會輸給誰,背後不是靠一個漂亮的 demo,而是靠你長期研究後,對整個路線、能力、節奏有一個完整理解。
◼ 介紹 Vera Rubin
• NVIDIA 官方對 Blackwell 的 NVFP4 算力,稠密模式下是 10 PFLOPS(你就記 10)。以前還會給你一個稀疏模式 20 PFLOPS,但老實講,過去很多人會覺得那個稀疏效能很像灌水,因為你要真的用到它,你得配合模型去做稀疏化設計,做權重調整,做一堆工程上的配合,結果就是大部分人根本沒用到,所以你看規格表覺得很爽,實務上不一定吃得到。
• Rubin 有趣的地方就在這裡。到了 Rubin,NVFP4 這個數字直接變成 35 PFLOPS,而且不再區分稠密、稀疏,你可以把它理解成:它的稠密基本上就能拿到稀疏的效率。10 變 35,等於提升 250%,也就是 3.5 倍。這就是為什麼我一直說「動態壓縮」是這次的關鍵,因為如果你不用這一招,Rubin 其實就很合理地比 Blackwell 多 60%~70% 而已。
◼ 硬體動態壓縮
• 你看這個 60%~70% 的幅度,跟黃仁勳在簡報裡講的「電晶體大概多 60%」其實對得上。電晶體多了,就像運算電路多了,運算電路多 60%,效能增加 60%,這很直覺、也很合理。也就是說,純硬體、純製程的進步,Rubin 的提升其實沒那麼玄。玄的是什麼?是用了動態壓縮之後,等於把原本稀疏化才能吃到的效率,直接透過硬體讓你在一般情境也吃得到,所以一下子就把幅度從「+60%」拉到「+250%」,這才是看起來像斷層的地方。
• 官方講動態壓縮的時候,幾乎都用 NVFP4 來說,FP8 沒有明講。所以你如果用最保守的解讀,你會說「FP8 沒用動態壓縮」。但我自己看數字,我覺得 FP8 很可能也有用。原因很簡單:如果沒有動態壓縮,那你任何精度格式的提升幅度,理論上都應該落在 60%~70% 這個合理區間;可是 FP8 的提升看起來也不像只多一點點,反而更像也吃到同一套「把稠密變得更像稀疏」的紅利。當然,這裡我講的是推測,不是官方明講的結論,但我會把它放進我的世界觀裡,因為它對你理解 NVIDIA 這一代到底在押什麼方向很重要。
接著我們把規格表丟一邊,來看 NVIDIA 自己最愛拿來講的「系統層級」成果。黃仁勳說,下一代大型模型的主流會是 MoE(Mixture of Experts,混合專家模型)。在訓練 MoE 這種模型時,Rubin NVL72 的效能大概是 Blackwell NVL72 的四倍,也就是你用四分之一的 GPU,就可以做到以前一整套機櫃的訓練能力。
◼推論成本大幅降低
• 但更誇張的是推論成本。他說在做 reasoning model(推理型模型)推論的時候,Rubin NVL72 每個 token 的成本只有 Blackwell 的十分之一。你如果只用「算力變 5 倍」去想,直覺會覺得最多就是變成五分之一,怎麼會到十分之一?這就是你要開始理解:成本不是只有 GPU 算力,還有非常多地方可以優化。
• 第一個比較好理解的,是能耗與散熱。以前很多液冷需要更特殊的條件、更複雜的配套;現在提到室溫液冷,代表你的系統在冷卻與能源上有機會更省、更簡化。
• 第二個才是真正的大招,而且跟「省錢」非常直接相關:共享上下文記憶體,NVIDIA 這次叫 ICMS(Inference Context Memory Storage Platform)。這個技術乍看之下,供應鏈很容易把它解讀成「未來 AI 需要更多 SSD」,這樣講不算錯,但我覺得更關鍵的是它背後在省什麼:它讓你少做很多重複運算,也讓你大幅降低記憶體用量。
• 我用一個很生活化的例子來講。你現在丟一份 PDF 給 ChatGPT,要它幫你解析財報,你其實不是只有把文字丟上去而已。模型會先把你提供的資料轉成一個叫 KV Cache 的東西。你可以把 KV Cache 想成:把原料先切好、備料備好,做成「下一步可以直接料理」的狀態。你問問題的時候,模型不是從頭再讀一次 PDF,它是拿 KV Cache 這份備料來做推論。
• 問題來了:全世界可能有一萬個人、十萬個人都在上傳同一份「特斯拉最新財報 PDF」,然後問一堆類似問題。原本的做法就會變成:同一份檔案,系統要重複做一萬次 KV Cache 的展開。這不只浪費算力,也超吃記憶體。
• ICMS 的想法就是:這種大家都會用的資料,算一次就好。先算出 KV Cache,存下來。你當下在用,它會放在最快的記憶體(像 HBM)服務你;你用完下線後,這份 KV Cache 不要丟,因為等等還會有人用,所以把它往下層放,存到 SSD。之後另一個人再上傳同一份財報,系統一比對,發現「我一小時前算過」,那就直接從 SSD 把算好的 KV Cache 讀回來,不用再做一次昂貴的展開。結果是什麼?速度會變快,系統負載會變低,記憶體用量也下降,省下來的算力就可以拿去做更有價值的推論。這種「少做一堆重複工」的省法,最後反映在成本上,就會比你只看 GPU 算力倍數還要更漂亮。
◼ 黃仁勳 Keynote 反而有讓人誤導的地方?
• 講到這裡,就會接到我對黃仁勳 Keynote 一個我覺得比較容易讓人誤會的地方。他在演講裡很強調:這次之所以能把系統效能拉到 5 倍,是因為他們做了六顆晶片的 codesign,共同設計,包含 Spectrum-X/Connect 的 NIC、BlueField 的 DPU、Vera CPU、Rubin GPU 等等,整套一起推上去才有這個成果。
• 但你如果回頭看我們剛剛那個最核心的數字,你會發現:在 NVFP4 的推論上,單一顆 GPU 的效能提升就已經接近 5 倍了。所以 5 倍不是因為你加了 DPU、加了 NIC 才突然長出來,這樣講會讓很多人以為「GPU 本身沒那麼強,是系統堆出來的」,我覺得這是比較容易誤導人的地方。
• 比較正確的理解方式是:GPU 這一代因為動態壓縮加上更好的製程,本來就會變強很多,甚至在某些精度格式下真的到 5 倍;但系統不是只看最快的那個環節,系統效能的瓶頸通常卡在最慢的那個環節。
• 一條馬路前半段你改成四線道,中間還是兩線道,那最後車流速度還是兩線道的速度。你把 GPU 做到 5 倍,如果 NVLink、資料搬運、網路傳輸、記憶體階層都沒跟上,整個系統一樣會卡住。就像我們以前玩 PC game 最常遇到的狀況:CPU 規格看起來強 20%,但遊戲實測只強 5%,因為其他瓶頸擋住了那 20%。
• 所以,與其說 NVIDIA 是靠六顆晶片 codesign 才「創造」出 5 倍效能,我更傾向說:GPU 已經強到會造成其他地方變瓶頸了,所以 NVIDIA 必須把整套資料傳輸、互連、網路、DPU 全部一起拉上來,才能讓你「真的吃到」GPU 那個 5 倍。它是在補齊系統短板,讓整體不被最慢的環節拖累。
◼ NVIDIA 並不完全是 GPU 公司
• 這也會導向一個這兩年越來越清楚的事:你很難再用「GPU 公司」去形容 NVIDIA。它也不只是晶片設計商,不只是機櫃 solution 廠商,它在做的是 AI infrastructure,是整個 AI 運算系統架構的設計商。你看到的不是一顆晶片的進化,而是一整個運算工廠的重新設計。
• 至於市場上常拿 Google TPU 出來講、說 NVIDIA 不行的那些論點,我只能說:TPU 當然很厲害,但當你把這些細節一塊一塊拼起來,你腦中的 NVIDIA 世界觀會越來越完整,然後你就會理解它到底可怕在哪裡。
【輝達自動駕駛模型】
◼輝達自動駕駛模型
• CES 這次除了 Rubin 以外,另一個很大的焦點其實是自動駕駛。輝達這次發表的模型叫 Alpamayo,它某個程度上就是在跟特斯拉對標。先講清楚它是什麼:Alpamayo 是一個自動駕駛的教師模型(teacher model)。模型很大,只能在雲端跑,但如果你是車廠,你可以拿這個教師模型去訓練出比較小的學生模型(student model),再把那個小模型裝到車子上。這個「大教小」的過程叫蒸餾。
• 更重要的是,Alpamayo 是開源模型。意思就是任何車廠都可以拿它來做微調(fine-tune),做出自己的版本。最直觀的例子就是賓士:如果賓士未來的車子裝上 Alpamayo 相關的系統跟相機,車子在路上跑就會開始蒐集資料。假設跑了半年一年後,賓士累積到 100 萬英里的駕駛影片,他就能把這些資料丟回 Alpamayo 的教師模型去做微調,訓練出「被賓士加強過」的版本。當然賓士不會拿去給 BMW 用,所以最後就是每一家車廠都拿同一個基礎模型,各自微調出自己的水準。
• 輝達這次推出 Alpamayo,我覺得它的心態很像:歐美車廠的自動駕駛真的落後太多了。現在全世界自動駕駛最厲害的是特斯拉,第二梯隊是中國,中國不管華為、地平線這些,其實都蠻厲害的,雖然仍落後特斯拉,但大概已經在 FSD v12~v13 之間的某個區間。反過來看歐美車廠,很多不要說追特斯拉,連中國車廠都看不到車尾燈。GM、福特、Volkswagen 這些傳統大廠,整體來說就是遙遙落後。輝達有點看不下去,乾脆說:你們做不出自己的模型,那我先做一個還不錯的基礎模型給你們用,你們每家都有自己的資料,就回去再微調,各自變強。
• 你可以把 Alpamayo 想成自駕界的 Llama。ChatGPT 在 2022 年底出來時,OpenAI 丟的是 GPT-3.5,當時很多公司、很多國家都說要訓練自己的模型,但過一兩個月就發現:沒有能力,做不出 GPT 等級的模型。可是又有人不想用 OpenAI 的模型,想要自己的模型怎麼辦?後來 Meta 推出 Llama,開源出來,等於救了一群「我自己做不出來,但我可以拿基礎模型來微調」的人。當年很多號稱什麼台灣的大型語言模型,其實就是拿 Llama 來調的。這一次在自駕上,特斯拉很像當年的 ChatGPT,Alpamayo 就很像當年的 Llama:讓那些研發能力跟不上的公司,至少有一個可以站上去的底座。
◼輝達提供 Alpamayo 值得觀察重點
• 其實這不是輝達第一次提供自駕的基礎模型。以前輝達在自駕技術平台裡就有基礎模型,但那一套比較早期,是模組化加上很多人工規則:前面幾個辨識模組,後面再用人寫的規則去做決策,技術路線更像特斯拉 FSD v11 以前那種,還不是端到端,而且當時也不是開源,只提供少數客戶。這次不一樣,輝達直接把模型公開、開源,而且模型本身也進化成 VLA(Vision-Language-Action)架構,至少在訓練方式上是端到端的:影像進來、動作出去,是從頭學到尾。但它的內部運作又不是特斯拉那種「一個超級巨大的神經網路」的純端到端,所以跟特斯拉仍有差別。以我自己的感覺,Alpamayo 現在大概是 FSD v12 左右的等級,未來還有很多進步空間。
• 我覺得 Alpamayo 最值得討論的有兩個點。第一個點是它其實再次證明:要做到接近 FSD、最後走到 Level 4,你幾乎必須學特斯拉的路線,也就是從 Level 2 的系統開始往上爬。很多人會想直接做 Level 4,但對大多數公司來說,直接衝 Level 4 根本是錯的路。原因很殘酷:如果你想走純視覺、自駕用影片訓練,你最大的瓶頸不是模型,而是影片資料量不夠。
• 特斯拉有上百萬台車在路上跑,收集了不知道幾億英里的駕駛影像。請問哪一家車廠有這種資料?Toyota 車很多,但路上跑的 Toyota 不會每一台都裝滿自駕相機;GM、福特也是一樣。這不是車廠大不大、賣得多不多的問題,是你賣出去的車本來就沒有裝那麼多鏡頭,你就沒有影像資料,你就沒辦法訓練。特斯拉的車大家都知道鏡頭很多,反正就是一堆相機在幫它錄影。你沒有這套,你就追不上。
• 這也是為什麼中國車廠能追上來,因為中國很多車廠跟特斯拉做法幾乎一樣:先從 Level 2 做起,但 Level 2 就直接裝滿鏡頭,8 顆、10 顆都來,先把資料飛輪轉起來。賣 5 萬台、10 萬台、20 萬台,資料量就越來越多,模型就越來越能訓練。歐美車廠如果要解決困境,唯一的方法也是一樣:先做很強的 Level 2,而且不是只裝一顆相機的那種 Level 2,是像特斯拉一樣「整台車裝一堆相機」的 Level 2,然後大量賣出去,讓幾十萬台車幫你收集影像。等你累積到幾千萬公里、幾億公里的影像,你才有資格回頭強化你的模型,再一步一步往 Level 3、Level 4 走。
• Waymo 其實也碰到同樣問題。Waymo 車隊數量有限、城市也有限,光靠自己沒辦法在視覺路線上追到特斯拉,所以它才會傳出要跟 Toyota 合作,開始做 Level 2,把技術放到量產車去實戰,透過量產車收資料,大家一起訓練。傳統車廠最簡單的方法當然是直接用特斯拉的系統、特斯拉也很願意授權,但他們就是不願意,他們就是討厭特斯拉,所以你才會看到輝達這次跳出來做「替代方案」。
• Alpamayo 的現況也很符合這個路線。輝達現在公開的 Alpamayo,真正的實車影像資料其實不多,它主要是用他們 cosmos 的世界模型、用模擬資料訓練出來的。模擬資料訓練的東西一上真實馬路一定會抖,所以它現在不可能直接變成 Level 4。但你問它能不能先當 Level 2?可以,而且它拿來當 Level 2 應該會比很多歐美車廠現有的 Level 2 強很多。它一旦上路,重點就是開始收集影像資料,兩年後三年後資料量變多,再回頭優化 Alpamayo,模型就會進化。賓士的合作案例很典型:首發車型 CLA 先做 L2 Plus(我之前也叫它 L2.9),比傳統 Level 2 強蠻多,可能可以變換車道、甚至點到點,但穩定性還不到 Level 3 或 Level 4,所以先停在 L2++。但賓士同時又說,Alpamayo 是他們 L4 路線圖的核心基礎模型,意思就是要從 Level 2 慢慢進化到 Level 4,這就是特斯拉路線的複製。
◼ VLA 對上端到端誰厲害?
• 接著第二個值得討論的點,就是 VLA(Vision-Language-Action)這條路線,對上特斯拉的純端到端(end-to-end)神經網路,到底誰比較強。先講什麼叫純端到端:影像進來、動作輸出,中間是一個超級巨大的神經網路,整個大腦自己做完所有判斷。特斯拉基本上就是這個路線,所以它中間某個程度是黑箱,你不太知道它到底怎麼想。Alpamayo 也同樣是影像進來、動作出去,看起來像端到端,但它中間不是一個神經網路,而是好幾個神經網路協作:一個負責影像感知,一個負責 language,會生成語意、生成推理軌跡(chain-of-thought),再把語意丟給 action 模組去執行。
• VLA 最大的優點是可解釋性。因為它會生成語意表示,它可以講出「我看到了什麼、速度如何、路況如何、有哪些選項、為什麼選這個」,工程師可以回頭追溯,監管單位也比較好理解。出了事要算帳也比較容易,因為你可以把「當時怎麼判斷」攤出來看。
• 但 VLA 的缺點也很直接:只要你分層、只要你把影像轉成語意,中間就會資訊流失。我用一個比喻:你拿一張幾千萬像素的照片,要用一百句話形容它長怎樣,你一定形容得出來,但不可能等於那張照片本身。影像資訊非常密集,語言再怎麼描述都會漏掉一些細節。只要漏掉細節,最終模型的上限就可能受影響。做得很好,也許可以做到接近 FSD 的 99%;做得差一點,可能就只有 95%,甚至 90% 也是有可能的。
• 所以你可以把兩條路線想成兩種駕駛:特斯拉的純端到端像一個老司機,全部靠直覺反應,一個大腦搞定;Alpamayo 的 VLA 像一台車坐了三個司機,一個負責看路、一個負責想策略、最後一個負責控制方向盤。三司機的好處是過程清楚、可追溯;代價是它不太可能像老司機那樣把所有細微的直覺都保留下來。你在台北路上開也許差別不大,但如果放到 F1 賽車那種極限環境,直覺型的老司機更可能贏。
• 那到底哪個比較強?我自己的判斷是:差距可能不會大到一般人有感,但「資料量」會決定誰更有優勢。資料量少的時候,VLA 可能更強,因為你可以針對它的推理過程去微調;資料量夠大的時候,純端到端應該會更強,而特斯拉已經到了這個境界。所以 Alpamayo 兩年內三年內要追到特斯拉的程度,我不太相信,但這也不是說誰一定對誰一定錯,這就是系統設計取捨。有些人比較重視可解釋性、比較偏向監管思維,那 VLA 這點一定加分;特斯拉不是沒有可解釋性,只是它比較像事後去解讀隱含向量,有點像研究人類腦神經:腦袋是黑箱,你只能從事後的訊號去推測它在想什麼。
• 我覺得兩條路線最終都走得通。特斯拉大概領先三到五年,因為它已經有大量資料的優勢。但當賓士、福特這些車廠開始實裝 Alpamayo、開始收集影片資料後,就算 VLA 的理論上限未必能完全等於特斯拉,做出來的體驗也可能強到「人類分辨不出來差距」。你可以想成統計上的差:也許特斯拉是每 20 萬英里才出一次事故,Alpamayo 最後是 17 萬英里一次,對一般人來說你開幾百趟幾千趟都不一定遇到一次,體感上就會覺得差不多。
◼監管機關能如何應對
• 我也認為監管最後會接受某種程度的黑箱。因為很多藥物就是這樣:機轉你不一定 100% 確定,但人體實驗證明有效、風險可控,就會上市使用。自動駕駛未來可能也會走到類似狀態:事故率夠低,就算可解釋性不是完美,大家還是會接受。至於責任,我反而覺得最後就是賠償問題,用保險解決,每趟 robotaxi 多付一點保費就好,因為事故機率可能是現在的百分之一或千分之一,保險公司反而更敢保。
• 所以我現在的看法是:Alpamayo 需要兩到三年去收集到足夠影像資料,三年後甚至五年後才可能接近「現在」的 FSD。2026 年的今天,最順利的狀況也可能要到 2029 的 Alpamayo 才追上 2026 的 FSD,而且那還是很樂觀的估法。但輝達的重點本來就不是要讓歐美車廠幹掉特斯拉,而是要救歐美車廠不要輸給中國汽車產業。因為如果未來大家都重視自動駕駛,又• 有一群人討厭特斯拉不想買特斯拉,那除了特斯拉之外最強的如果只剩中國品牌,歐美車廠就更麻煩了。有了 Alpamayo,至少歐美的智慧駕駛能力可以瞬間拉到接近中國一線的水準,就算中國還強一點點,差距也不會太誇張。
◼ 從投資角度看誰更強
• 從投資角度想,特斯拉跟輝達都很強。輝達當然沒辦法幹掉特斯拉,但各家車廠又就是不想用特斯拉,輝達就有它的市場空間,兩邊都可以抱住。從投資角度來看,這件事其實沒有什麼非黑即白。Tesla 依然是自動駕駛裡面最領先的那一個,資料量、模型成熟度、時間優勢都擺在那裡;而 NVIDIA 也不是真的要幫任何一家車廠「幹掉特斯拉」。輝達這一整套 Alpamayo 的策略,更像是在幫整個歐美汽車產業「止血」。
• 因為如果未來市場真的越來越重視自動駕駛,而偏偏又有一群消費者討厭特斯拉、不想買特斯拉,那問題就來了:除了特斯拉之外,下一個選項是誰?如果答案只剩下中國品牌,那歐美車廠的處境只會更糟。Alpamayo 的意義就在這裡,它不一定能讓歐美車廠贏過特斯拉,但至少讓他們不至於在自動駕駛這一題,直接被中國車廠整個輾過去。
• 有了 Alpamayo 之後,歐美車廠至少可以在很短的時間內,把自家的 L2++ 智慧駕駛水準,拉到接近中國一線車廠的等級。也許還是差一點點,但已經不是不同世代的差距了。接下來比的,就不再只是模型架構,而是誰能更快把車賣出去、誰能更快收集到大量真實世界的影像資料、誰能把這個資料飛輪轉得更順。
• 所以回頭看,Alpamayo 並不是一個「終極解答」,而是一個「讓比賽能繼續下去的起跑線」。對車廠來說,它是一條不得不走的現實路線;對輝達來說,它是在擴大整個自動駕駛與 AI 基礎設施的市場;而對投資人來說,這代表的是兩件事同時成立:特斯拉的領先地位沒有被動搖,但輝達在汽車與自動駕駛這條線上的角色,也變得越來越關鍵。
【M觀點指數更新】
◼M觀點指數
• 每一年,我都會幫自己編兩個指數,一個叫 Easy 10,一個叫 TechGiant。後來因為發現自己實在沒有時間同時深入研究那麼多家公司,TechGiant 這個指數一路從最早的 25 檔、20 檔,慢慢縮到現在的 15 檔。不是因為市場變小,而是因為我不想把一些我其實研究得不夠深的公司,硬塞進一個我自己都要負責任的指數裡。到 TechGiant 15,對我來說剛剛好。
• Easy 10 的概念其實很單純,就是「簡單十」。如果你想投資,但又不想買 S&P 500,也不想想太多,那你就把資金平均分成十等分,十個標的,每一檔 10%。這個指數的重點從來不是操作,而是用最少的判斷,去參與長期趨勢。
• TechGiant 15 則比較進階一點。它由 15 家我自己長期最欣賞、也願意花時間研究的科技公司組成,其中五檔是 10% 的核心持股,另外十檔是 5% 的衛星配置,整體結構更集中,但波動也一定比較大。
◼ 2025 指數成績
• 先看 2025 年的成績,其實都還不錯。Easy 10 在 2025 年全年上漲 25.9%,不只打敗 S&P 500 的 17.7%,也贏過 QQQ 的 20.8%。TechGiant 15 的表現更好,全年報酬率是 30.3%。比較有趣的是,這兩個「規則化指數」,甚至都贏過我自己花很多時間操作的美股主動投資部位,那一組去年的報酬大概是 22%。某種程度上,這其實也是每年提醒我自己的一件事:指數有時候真的比人厲害。
◼ 2026 指數調整
• 接下來是 2026 年版本的調整。Easy 10 幾乎沒有動,只做了一個小變化,就是把印度 ETF INDA 換掉,改成越南 ETF。原本我期待印度能在美中對抗的過程中更明確站隊美國,成為「取代中國」的重要市場,但後來觀察下來,我覺得莫迪政府還是想維持一種三角平衡。這樣的策略,意味著印度未必會成為美國未來最優先扶植的供應鏈夥伴。
• 在這個前提下,我寧願把這個位置交給越南。越南在製造業結構上,本來就和中國沿海地區更接近,過去幾年也持續承接從中國外移的低階與中階製造。再加上最近一輪與美國的貿易談判,越南的反應速度與態度都算漂亮。當然,越南最大的問題也很明顯:去年漲太多了。越南 ETF 去年漲了六成多,今年會不會續漲,老實說沒有人知道。但 Easy 10 本來就不是拿來預測單一年份,而是用來挑選長線趨勢標的。
• 所以 2026 年的 Easy 10,基本上仍然是美股七巨頭,加上半導體 ETF SMH、機器人與 AI 的 ARKQ,以及一檔「取代中國」概念的越南 ETF。核心邏輯沒有變,還是美國科技、AI 主線,再搭配供應鏈重組的受惠者。
• TechGiant 15 的調整就比較痛苦了。因為我一直很想把 Google 從後段 5% 拉到前段 10%,但前五檔原本是微軟、輝達、特斯拉、Meta 和亞馬遜,這幾家公司我其實都很看好。理性來說,最該被調整的可能是特斯拉,畢竟前一年漲幅已經很大,但最後我還是選擇把亞馬遜換掉。原因很簡單,在這五家公司裡,亞馬遜在 AI 的位置相對落後,而 Meta 則是我今年反而越看越有信心的公司。
• 於是 2026 年 TechGiant 15 的五檔核心 10% 持股,變成微軟、輝達、Google、特斯拉和 Meta。後面的 5% 區,也做了兩個調整,把 Shopify 和 Booking 拿掉,換成 AVGO 和 Cloudflare。前者是 AI 基礎建設中極具關鍵性的半導體公司,後者則是我長期看好的雲端與網路層級公司。
• 最終的 5% 名單,包含了蘋果、Netflix、亞馬遜這些成熟科技巨頭,台積電與 AVGO 這類半導體核心供應商,以及 Palantir、SE、CrowdStrike、Cloudflare 等成長型科技公司,最後再用一檔 ARKQ 作為未來科技的補充。
• 這就是 2026 年版本的 Easy 10 與 TechGiant 15。完整名單之後會放在 Telegram 群組,想對照細節的人可以再去看。對我來說,這兩個指數每一年最重要的意義,從來不是炫耀績效,而是逼自己把想法結構化,看看哪些判斷值得留下,哪些該被修正。
本精華整理為 YouTube / Podcast M觀點頻道直播的內容摘要,推薦想要聽到完整內容的,可以透過 YouTube 或 Podcast 完整收聽整場節目。
Youtube: https://www.youtube.com/@miulaviewpoint
Apple Podcast: https://apple.co/3uLcdeX
Spotify Podcast: https://spoti.fi/3cXfdi8
想獲得更多 Miula 的相關服務與資訊?請參考以下連結:
科技巨頭解碼: https://bit.ly/3koflbU
M觀點 Telegram - https://t.me/miulaviewpoint
M觀點粉絲團 - https://bit.ly/3u3XmLY

