AI 產業動態

Apple 與 Google 攜手合作:Gemini AI 如何徹底改變 Siri 和 iPhone 體驗

作者:Ivan So | 2026 年 3 月 | 閱讀時間:約 18 分鐘

引言:科技界的重磅合作

2026 年 1 月 12 日,Apple 和 Google 共同宣佈了一項深度合作協議,將 Google 的 Gemini AI 技術整合至 Apple 的產品生態系統中,為 Siri 及整個 iPhone 體驗帶來根本性的變革。這項合作不僅是兩間科技巨頭之間的商業交易,更標誌著人工智能產業進入了一個全新的階段——即使是 Apple 這樣擁有龐大研發資源的企業,也認識到在 AI 軍備競賽中,策略性合作比單打獨鬥更為務實。

對於香港超過 400 萬的 iPhone 用戶而言,這項合作的意義非常直接:你手上的 iPhone 即將獲得一次重大的智能升級。Siri 將從一個經常被詬病「聽不懂人話」的語音助理,蛻變為一個能理解語境、感知螢幕內容、深度控制應用程式的智能夥伴。這篇文章將深入分析這項合作的技術細節、隱私架構、對香港用戶的影響,以及它如何重塑整個 AI 生態系統。

合作細節:Apple 與 Google 的戰略聯盟

根據 Bloomberg 報道,Apple 為這項合作每年支付約 10 億美元(約 78 億港元)的費用。這個數字看似龐大,但對比 Apple 每年超過 300 億美元的研發支出,以及 Google 在 AI 領域投入的數百億美元基礎設施成本,這筆交易對雙方而言都具有高度的戰略價值。

Apple CEO Tim Cook 在官方聲明中表示:「我們評估後認定,Google 的 AI 技術能夠為 Apple Foundation Models(AFM)提供最具能力的基礎。」("determined that Google's AI technology would provide the most capable foundation for AFM")這段話的措辭值得深思——Cook 使用了「most capable foundation」這個表述,暗示 Apple 進行了嚴格的技術評估和比較,最終選擇了 Gemini 作為其 AI 基礎設施的核心供應商。

從 Google 的角度來看,這項合作同樣意義重大。Google 長期面臨一個挑戰:儘管擁有頂尖的 AI 技術,但在消費者端的 AI 產品(如 Google Assistant)的市場影響力遠不及其搜尋引擎。通過與 Apple 合作,Gemini 將直接觸達全球超過 20 億的活躍 Apple 裝置用戶,這是 Google 自身難以獨立實現的分發規模。

合作的結構性設計

這項合作並非簡單的技術授權。Apple 沒有將 Siri 的「大腦」完全外包給 Google,而是採用了一套精心設計的整合架構。Gemini 作為後端的推理引擎,負責處理需要大量運算的複雜 AI 任務;而 Apple 則保留了對用戶介面、數據流向和隱私控制的完整主導權。這意味著用戶在使用過程中看到的仍然是 Siri 的品牌和介面,而不是 Google 的產品。

這種「前端 Apple、後端 Google」的架構設計,反映了 Apple 一貫的產品哲學:控制用戶體驗的每一個觸點,同時在需要時借用外部的技術能力。類似的模式在過去也出現過——Apple Maps 最初使用 Google 的地圖數據,iPhone 的搜尋引擎預設為 Google,Safari 的隱私瀏覽模式亦依賴第三方的安全基礎設施。

Gemini 1.2:驅動新一代 Siri 的引擎

這次整合使用的是 Google Gemini 1.2 模型——一個擁有 1.2 萬億(trillion)參數的大型語言模型。為了讓這個數字更直觀:1.2 萬億個參數意味著這個模型在訓練過程中學習了超過 1.2 萬億個可調整的數值權重,每一個權重都代表著模型對語言、知識和推理的理解。

Gemini 1.2 相比早期版本有幾個關鍵的技術突破:

值得留意的是,Apple 並不會直接使用 Google 提供的「原裝」Gemini 模型。根據已知的技術細節,Apple 會對 Gemini 進行定制化的微調(fine-tuning),使其更好地適配 Apple 生態系統的使用場景,包括 Siri 的對話風格、Apple 裝置的功能控制,以及與 iOS 應用程式的深度整合。

技術背景:什麼是模型參數?

大型語言模型的「參數」可以類比為人腦中的突觸連接。參數越多,模型能夠學習和表達的知識與模式就越豐富。Gemini 1.2 的 1.2 萬億參數使其成為目前公開已知的參數規模排名前列的 AI 模型之一。但參數數量並非唯一的性能指標——訓練數據的質量、模型架構的設計和推理時的優化同樣關鍵。

全新 Siri:從語音助理到智能夥伴

在 Gemini 加持下,Siri 將經歷自 2011 年面世以來最根本的改變。以下是即將到來的核心升級:

上下文感知(Context Awareness)

新版 Siri 將具備真正的上下文理解能力。過去的 Siri 是「無記憶」的——每一次對話都是獨立的,你無法在一個問題的基礎上追問下去。舉例來說,你問「今天天氣如何?」然後再問「那明天呢?」,舊版 Siri 往往無法理解「那」指的是天氣。

新版 Siri 能夠追蹤對話的完整脈絡。你可以進行多輪對話,逐步細化你的需求,而 Siri 會記住之前的交流內容並作出相應的回應。這種能力讓與 Siri 的交互從「下指令」變為真正的「對話」。

螢幕感知(On-Screen Awareness)

這是一個令人期待的新功能——Siri 將能夠「看到」你螢幕上正在顯示的內容,並基於此提供相關的協助。例如:

這種螢幕感知能力得益於 Gemini 的多模態理解能力——模型不僅能處理文字,還能分析螢幕上的視覺內容,包括圖片、介面元素和排版結構。

深度應用控制(Deeper Per-App Controls)

新版 Siri 將獲得對 iPhone 上各個應用程式的更深層次控制能力。這不再僅限於「打開某個 App」或「發送訊息」這類基礎操作,而是能夠執行應用程式內部的複雜功能。具體而言:

對於香港用戶而言,這些提升的實際效果將在日常使用中逐漸顯現。想像一下:你用粵語對 Siri 說「幫我喺 WhatsApp 搵返尋日同 Peter 傾嗰段關於週五飯局嘅對話」,新版 Siri 理論上能夠理解這種自然的表達方式,並執行相應的搜尋操作。雖然粵語支持的完善程度仍有待觀察,但 Gemini 在多語言理解方面的能力確實為此提供了技術基礎。

隱私架構:Apple Private Cloud Compute 的關鍵角色

在 AI 功能與隱私之間取得平衡,是 Apple 面對這項合作時最敏感的議題。Apple 一直將隱私保護作為其品牌的核心承諾,而與 Google——一間以廣告和數據驅動為商業模式的公司——進行 AI 合作,不可避免地引發了用戶對數據安全的擔憂。

為此,Apple 設計了一個關鍵的技術中間層:Apple Private Cloud Compute(PCC)。PCC 作為 Apple 自建的雲端運算基礎設施,在用戶數據與 Google 的 Gemini 模型之間充當「隱私緩衝層」(privacy buffer layer)。

PCC 的運作機制

當用戶的請求需要調用 Gemini 進行處理時,數據的流向如下:

  1. 數據去識別化:用戶的請求在離開裝置之前,會先經過本地的隱私處理,移除可識別個人身份的資訊
  2. 加密傳輸至 PCC:經過去識別化的數據通過端對端加密傳輸到 Apple 的 Private Cloud Compute 伺服器
  3. PCC 中的隔離處理:在 PCC 環境中,數據在安全飛地(secure enclave)中被處理,Apple 聲稱即使是 Apple 自身的工程師也無法存取這些數據
  4. 結構化查詢轉發:PCC 將經過處理的查詢以結構化的方式轉發至 Gemini,僅傳送完成任務所需的最少量資訊
  5. 結果返回和銷毀:Gemini 的回應通過 PCC 返回用戶裝置,處理過程中的臨時數據隨即銷毀

隱私提醒

儘管 Apple 的 PCC 架構提供了多層隱私保護,用戶仍應注意:涉及高度敏感資訊(如個人財務數據、醫療記錄等)的查詢,數據在技術上仍需經過雲端處理。Apple 表示會提供明確的提示,讓用戶在需要時選擇是否將特定請求發送至雲端。建議用戶留意相關的隱私設置選項。

值得留意的是,Apple 在其開發者文檔中強調,PCC 伺服器運行的是經過安全審計的自研軟件,並且提供了技術手段讓獨立安全研究人員驗證伺服器上運行的軟件與其公開聲明的一致性。這種透明度措施在雲端 AI 服務中是相對少見的,反映了 Apple 在隱私承諾方面的認真態度。

三層運算架構:智能分配任務

新的 AI 架構採用了三層運算模型,根據任務的複雜程度將請求分配到不同的處理層級:

第一層:裝置端本地處理

簡單的任務直接在 iPhone 本地完成,完全不需要連接網路。這一層由 Apple 自研的 Neural Engine 和裝置端小型 AI 模型負責處理。適用的場景包括:

本地處理的優勢在於速度快、無延遲,而且數據完全不離開裝置,隱私保護程度最高。

第二層:Apple 雲端處理

中等複雜度的任務會傳送到 Apple 的 Private Cloud Compute 進行處理。這一層使用 Apple 自己的 AI 模型(Apple Foundation Models),在 Apple 控制的伺服器上執行。適用的場景包括:

第三層:Gemini 雲端處理

要求最高的任務——例如複雜的推理、大量知識的綜合分析、高難度的多模態理解——會通過 PCC 轉發至 Google 的 Gemini 進行處理。這一層適用於:

這種三層架構的設計體現了工程上的精巧平衡:盡可能在本地處理以保障隱私和速度,必要時逐級上升到更強大的運算資源。對用戶而言,這個過程是完全透明的——你只需要對 Siri 說出你的需求,系統會自動判斷並將任務分配到最合適的處理層級。

實用提示

預計在 iOS 26.4 的設置中,用戶能夠自訂哪些類型的請求可以使用雲端處理,哪些僅限本地處理。如果你對隱私有較高的要求,可以選擇限制雲端 AI 功能的使用範圍,雖然這會在一定程度上影響 Siri 能夠處理的任務複雜度。

對香港 iPhone 用戶的實際影響

香港作為全球 iPhone 滲透率排名前列的市場之一,這項合作對本地用戶的影響值得深入探討。

語言支援的改善

Gemini 在多語言支援方面的表現是其核心優勢之一。對於香港用戶而言,最直接的受益是中文(繁體)和英語雙語環境下 Siri 理解能力的提升。香港人在日常對話中經常進行中英夾雜(code-mixing),例如「幫我 book 一間 restaurant」這種表達方式。Gemini 的多語言模型在處理這類混合語言輸入方面,理論上比傳統的語音識別系統更為出色。

然而,粵語作為一種與普通話在語法和詞彙上有顯著差異的語言,其支援程度仍是一個未知數。目前已知的資訊顯示,Gemini 的粵語訓練數據規模遠不及英語和普通話,因此在粵語口語理解方面可能仍會存在差距。不過,隨著 Apple 和 Google 持續優化模型,這方面的表現預計會逐步改善。

日常使用場景的變化

對於香港的普通消費者來說,新版 Siri 在以下日常場景中的提升將尤為明顯:

可用時間表

根據目前的時間表,Gemini 整合的首批功能預計在 iOS 26.4 中推出,時間約在 2026 年 3 月至 4 月之間。初期推出的功能可能以文字理解和生成為主,而更進階的多模態功能(如螢幕感知)預計在隨後的更新中逐步上線。

需要注意的是,Apple 的 AI 功能推出向來採用分階段的策略,不同地區和語言的支持程度可能存在差異。香港作為繁體中文地區,某些功能的上線時間可能略遲於英語地區。但考慮到 Apple 近年對亞太市場的重視,這個時間差預計不會太長。

AI 生態系統的連鎖效應

Apple 和 Google 的合作對整個 AI 產業的生態系統產生了深遠的影響,其波及範圍遠超兩間公司本身。

對 Android 陣營的壓力

諷刺的是,Google 將其 AI 技術授權給 Apple,反而可能對 Android 生態系統造成壓力。Samsung、OPPO、Xiaomi 等 Android 廠商現在面臨一個尷尬的局面:它們使用 Google 的 AI 技術(通過 Android 平台),但 Apple 用戶可能獲得一個更為整合和流暢的 AI 體驗——因為 Apple 能夠在硬件、軟件和 AI 之間實現更緊密的優化。

這可能促使 Android 廠商加速發展自己的 AI 能力,或者與 Google 洽談更深度的 AI 整合方案,以確保在 AI 體驗方面不落後於 iPhone。對消費者而言,這種競爭是有利的——它將推動所有手機廠商在 AI 功能上投入更多資源。

對 AI 初創公司的影響

Apple-Google 的合作也對 AI 初創公司產生了重要的信號效應。一方面,它確認了大型語言模型作為消費者產品基礎設施的地位,為專注於 AI 應用層的初創公司提供了明確的發展方向。另一方面,它也表明了基礎模型(foundation model)的開發已經成為一場資本密集的競賽,小型公司在這一層面與巨頭正面競爭的難度越來越高。

對於香港的 AI 初創生態而言,這意味著專注於垂直應用——例如針對香港特定行業需求的 AI 解決方案——可能比嘗試開發通用型 AI 模型更具實際意義。利用 Apple 和 Google 提供的 AI 基礎設施,在其上構建針對本地市場的應用,是一條更為可行的發展路徑。

企業 AI 採用的加速

當 AI 功能內建在每一部 iPhone 中,企業對 AI 的採用速度預計將顯著加快。過去,企業引入 AI 工具需要額外的軟件採購、員工培訓和工作流程調整。當 iPhone 自帶的 Siri 就能完成智能摘要、草擬回覆、數據分析等任務時,AI 的使用門檻將大幅降低——員工只需要像使用 Siri 一樣自然地與 AI 互動。

這對香港的中小企業尤為重要。過去,引入 AI 工具可能需要技術團隊的支持和額外的預算;未來,只要員工手持一部 iPhone,就擁有了一個基本的 AI 助手。當然,如何有效地利用這些內建的 AI 能力——如何撰寫清晰的指令、如何設計高效的工作流程、如何判斷 AI 輸出的可靠性——這些仍然需要系統的學習和培訓。

與 OpenAI 的關係:多元 AI 策略

值得注意的是,Apple 在與 Google 達成 Gemini 合作的同時,仍然維持著與 OpenAI 的 ChatGPT 合作關係。這種「多供應商」策略在 Apple 的歷史上有跡可循——Apple 從不將關鍵供應鏈集中在單一供應商手上。

從技術角度分析,Gemini 和 ChatGPT 在不同的任務領域各有優勢。Gemini 在多模態理解、長上下文處理和多語言能力方面表現出色;而 ChatGPT 在創意寫作、程式碼生成和對話自然度方面可能仍有優勢。Apple 同時保留兩個合作夥伴,使其能夠根據不同的任務類型將請求路由到最合適的模型。

此外,Apple 也在持續開發自己的專有 AI 模型(Apple Foundation Models)。長遠來看,Apple 可能會逐步減少對外部 AI 供應商的依賴,就像它過去從 Intel 處理器遷移到自研的 Apple Silicon 一樣。但這個過程需要時間——在 AI 技術快速發展的當下,與 Google 和 OpenAI 合作讓 Apple 能夠在短期內為用戶提供有競爭力的 AI 體驗。

Apple 的多層 AI 策略

  • 短期(2026-2027) —— 以 Gemini 和 ChatGPT 作為後端引擎,快速提升 Siri 和 iOS 的 AI 能力
  • 中期(2027-2028) —— 逐步增強自研 Apple Foundation Models 的能力,減少對外部模型的依賴
  • 長期(2029+) —— 建立完整的自研 AI 技術堆疊,將 AI 能力深度整合到 Apple 的硬件和軟件生態系統中

未來展望:WWDC 2026 與 iOS 27

雖然 iOS 26.4 將帶來首批 Gemini 整合功能,但真正的「完整體驗」預計要等到 2026 年 6 月的 WWDC(全球開發者大會)和隨後的 iOS 27 才會實現。

WWDC 2026 的預期公佈

根據目前的產業分析,Apple 在 WWDC 2026 上可能會公佈:

iOS 27 的完整整合

iOS 27 預計在 2026 年秋季推出,屆時 Gemini 的整合將進入「完整形態」。這意味著:

對於關注科技發展的香港用戶,這代表著 2026 年下半年將是 iPhone AI 體驗快速迭代的時期。及早了解和學習 AI 的使用方法,將有助於在這些功能上線時迅速上手。

總結與啟示

Apple 與 Google 在 AI 領域的合作,標誌著消費者 AI 正式進入了「基礎設施化」的階段。AI 不再是需要刻意下載和學習的獨立工具,而是嵌入在你手機中的基本能力——如同網路連接和觸控螢幕一樣自然。

對於香港的用戶和企業而言,這項變化帶來了幾個明確的啟示:

Apple 和 Google 的這項合作,只是 AI 融入消費者生活的其中一步。在可預見的未來,AI 將以越來越深入的方式嵌入到我們使用的每一個裝置、每一個應用和每一個工作流程中。對於個人和企業而言,現在開始系統地學習 AI 的使用方法和原理,並非過早,而是恰逢其時。

如果你希望更深入地了解 AI 技術的應用方法,包括如何利用 AI 工具提升工作效率、如何制定企業 AI 策略,以及如何在日常工作中有效地與 AI 互動,歡迎瀏覽我們的 AI 課程。導師 Ivan So 擁有豐富的 AI 培訓經驗,能夠為你提供實用、貼地的 AI 應用指導,助你在 AI 時代保持競爭優勢。

掌握 AI 時代的關鍵技能

由 Ivan So 親授的 AI 課程,涵蓋生成式 AI 應用、Prompt Engineering、AI Agent 等內容。適合企業培訓及個人進修,助你在 AI 浪潮中佔據先機。

立即查詢課程詳情

本文由 AI Course Hong Kong 導師 Ivan So 撰寫。如有查詢,歡迎電郵至 ivan@hdcourse.com