大型科技公司在人工智慧領域扮演什麼角色?

大型科技公司在人工智慧領域扮演什麼角色?

簡而言之:大型科技公司在人工智慧領域至關重要,因為它們掌控著那些看似不起眼的基礎要素——運算能力、雲端平台、設備、應用程式商店和企業工具。這種掌控力使它們能夠為前沿模型提供資金支持,並迅速將功能推送給數十億用戶。如果治理、隱私控制和互通性薄弱,同樣的槓桿作用就會轉化為壟斷和權力集中。

重點總結:

基礎設施:將雲端、晶片和 MLOps 的控制視為人工智慧的主要瓶頸。.

發行方式:預計平台更新將重新定義「人工智慧」對大多數用戶的意義。

把關:應用程式商店規則和 API 條款悄悄決定哪些 AI 功能可以發布。

使用者控制:要求提供清晰的退出選項、持久的設定以及有效的管理員控制。

問責:要求建立稽核日誌、提高透明度,並為有害後果設立申訴途徑。

大型科技公司在人工智慧領域扮演什麼角色?資訊圖

🔗 人工智慧的未來:趨勢與展望
未來十年將出現哪些關鍵創新、風險和產業格局的改變?.

🔗 生成式人工智慧中的基礎模型:簡明指南
了解基礎模型如何為現代生成式人工智慧應用提供支援。.

🔗 什麼是人工智慧公司?它是如何運作的?
了解定義人工智慧優先型企業的特徵、團隊和產品。.

🔗 實際專案中的人工智慧程式碼是什麼樣的
查看人工智慧驅動的程式碼模式、工具和工作流程範例。.

讓我們坦誠一點——大多數關於「人工智慧」的討論都避而不談那些不那麼光鮮亮麗的部分,比如計算、分發、採購、合規,以及GPU和電力都需要付費這個令人尷尬的現實。大型科技公司就紮根於這些不起眼的領域。而這正是它們如此重要的原因。 😅(國際能源總署 - 能源與人工智慧英偉達 - 人工智慧推理平台概述


用簡單易懂的方式解讀大型科技公司在人工智慧領域的角色🧩

人們常說的「大型科技公司」通常指的是控制現代運算主要層面的巨型平台公司:

所以他們的角色不只是「製造人工智慧」。更像他們修建高速公路、銷售汽車、營運收費站,甚至決定出口在哪裡。這有點誇張……但也沒誇張多少。.


大型科技公司在人工智慧領域扮演的角色:五大關鍵職位🏗️

如果要建立一個清晰的思維模型,大型科技公司在人工智慧領域往往承擔著五項重疊的工作:

  1. 基礎設施供應商:
    資料中心、雲端運算、網路、安全性、MLOps 工具。這些要素使大規模人工智慧成為可能。 (亞馬遜 SageMaker AI 文檔國際能源總署 - 能源與人工智慧

  2. 模型建構者和研究引擎:
    並非總是如此,但通常是實驗室、內部研發、應用研究和「產品化科學」。 (神經語言模型的縮放定律(arXiv)訓練計算最優的大型語言模型(Chinchilla)(arXiv)

  3. 經銷商
    可以將人工智慧推送到搜尋引擎、手機、電子郵件用戶端、廣告系統和辦公室工具。分銷是一種超能力。

  4. 把關人和規則制定者:
    應用商店政策、平台規則、API條款、內容審核、安全關卡、企業控制。 (蘋果應用審核指南Google應用程式商店資料安全

  5. 資本配置者
    :他們提供資金、收購、合作、孵化。他們塑造著企業的生存。

從功能角度來說,這就是大型科技公司在人工智慧領域的作用:它們創造了人工智慧存在的條件——然後決定人工智慧如何到達你身邊。.


大型科技公司在人工智慧領域扮演怎樣的角色才算好呢? ✅😬

大型科技公司在人工智慧領域的「良好版本」並非追求完美,而是負責任地權衡利弊,減少對其他各方造成的意外風險。.

以下是區分「樂於助人的巨頭」和「糟糕,壟斷」氛圍的關鍵:

  • 透明公開,避免使用晦澀難懂的術語
    。清楚標註人工智慧的功能、限制以及所使用的數據。而非長達40頁的複雜政策文件。 ( NIST AI RMF 1.0ISO/IEC 42001:2023

  • 真正的使用者控制:
    有效的退出機制、不會莫名其妙重置的隱私設置,以及無需費力尋找的管理員控制功能。 ( GDPR - 歐盟法規 (EU) 2016/679

  • 互通性和開放性——有時
    並非所有東西都必須開源,但將所有人永遠鎖定在一個供應商身上是一種……選擇。

  • 安全措施切實有效:
    濫用監控、紅隊演練、內容控制,以及毫不猶豫地阻止明顯有風險的使用案例。 ( NIST AI RMF 1.0NIST GenAI 規格(AI RMF 配套規格)

  • 健康的生態系統
    :支持新創企業、合作夥伴、研究人員和開放標準,使創新不會淪為「租用平台或消失」。 (經合組織人工智慧原則

我就直說了:「好的版本」感覺就像是可靠的公共事業,產品品味一流。 「壞的版本」感覺就像一個賭場,莊家甚至連規則都制定。 🎰


比較表格:頂尖科技公司「人工智慧路線」及其成功原因📊

工具(通道) 觀眾 價格 為什麼有效
雲端人工智慧平台 企業、新創公司 基於使用情況的 易於擴展,一張發票,選項很多(選項太多了)
前沿模型 API 開發人員、產品團隊 按代幣付費/分級付費 整合速度快,基礎品質好,感覺像作弊一樣😅
設備嵌入式人工智慧 消費者、產消者 捆綁式 低延遲,有時注重隱私,基本上可以離線使用。
生產力套件 AI 辦公室團隊 按座位附加費 生活在日常工作流程中——文件、郵件、會議,所有的一切。
廣告 + 定向人工智慧 行銷人員 支出百分比 大數據 + 分發 = 高效,但也有點詭異 👀
安全與合規人工智慧 受監管業 優質的 兜售「安心感」-即便只是減少了警報數量。
人工智慧晶片 + 加速器 上游所有人 資本支出密集型 如果你擁有鐵鍬,你就贏得了淘金熱(比喻雖然笨拙,但仍然適用)。
開放型生態系策略 建築商、研究人員 免費+付費套餐 社群動力、更快的迭代、有時略顯混亂的樂趣

坦白一下這個小小的表格小撇步:「差不多免費」在這裡起了很多作用。免費到……你懂的。.


特寫鏡頭:基礎設施瓶頸(運算、雲端運算、晶片)🧱⚙️

這是大多數人都不願談及的部分,因為它並不光鮮亮麗。但它卻是人工智慧的脊梁。.

大型科技公司透過控制以下方面影響人工智慧:

如果你曾經嘗試在真正的公司部署過人工智慧系統,你肯定知道「模型」本身其實很簡單。困難在於:權限管理、日誌、資料存取、成本控制、正常運作時間、事件回應…這些才是真正棘手的問題。 😵💫

因為大型科技公司掌握著如此多的資源,它們可以設定預設模式:

  • 哪些工具會成為標準工具

  • 哪些框架能獲得一流的支持

  • 優先使用哪些硬體?

  • 哪些定價模式會成為「常態」?

那本身不一定是邪惡的,但它代表著權力。.


近距離觀察:模型研究與產品實際情況比較 🧪➡️🛠️

矛盾之處在於:大型科技公司既有能力投入大量資金進行深度研究,也需要每季推出成功的產品。這種組合既能帶來驚人的突破,也會導致…一些品質堪憂的功能發布。.

大型科技公司通常透過以下方式推動人工智慧的發展:

但產品壓力改變了一切:

  • 速度勝過優雅

  • 運輸勝於解釋

  • 「夠好」勝過「完全理解」。

有時候這樣做沒問題。大多數使用者並不需要理論上的完美,他們需要的只是工作流程中的一個得力助手。但風險在於,「夠好」的標準會被應用在一些敏感領域(醫療、招募、金融、教育),而「夠好」在這些領域…遠遠不夠。 (歐盟人工智慧法案 - (EU) 2024/1689 號條例

這就是大型科技公司在人工智慧領域扮演的角色之一——即使技術邊緣仍然很鋒利,也要將尖端技術轉化為大眾市場功能。 🔪


近距離觀察:經銷才是真正的超級大力量🚀📣

如果你能將人工智慧融入人們已經生活的數位空間,你就不需要「說服」用戶,你自然而然就會成為預設選項。.

大型科技公司的通路包括:

這就是為什麼規模較小的AI公司即使心存疑慮,也常常會與大型科技公司合作。分銷就像氧氣一樣重要。沒有分銷,即使你擁有世界上最好的模型,也如同對著空氣吶喊。.

還有一個微妙的副作用:分銷管道甚至會影響大眾對「人工智慧」的理解。如果人工智慧主要以寫作輔助工具的形式出現,人們就會認為人工智慧就是用來寫作的。如果它以照片編輯的形式出現,人們就會認為人工智慧就是用來處理圖像的。平台決定了人工智慧給人的感覺。.


近距離觀察:資料、隱私與信任交易🔐🧠

人工智慧系統在個人化客製化後往往更加有效。個性化客製化通常需要數據。而數據又會帶來風險。這種三角關係始終存在。.

大型科技公司佔據:

  • 消費者行為數據(搜尋、點擊、偏好)

  • 企業資料(電子郵件、文件、聊天記錄、工單、工作流程)

  • 平台資料(應用、支付、身分訊號)

  • 設備資料(位置、感應器、照片、語音輸入)

即使不直接使用“原始數據”,周圍的生態系統也會影響培訓、微調、評估和產品方向。.

信任交易通常是這樣的:

  • 用戶接受資料收集是因為產品很方便🧃

  • 當情況變得令人不安時,監管機構會反擊👀( GDPR - (EU) 2016/679 號條例

  • 企業透過管控措施、政策和「隱私優先」的訊息傳遞來應對。

  • 每個人都在爭論「隱私」的含義。

我觀察到一個行之有效的經驗法則:如果一家公司能夠用一次對話就解釋清楚他們的AI數據實踐,而不是躲在法律術語背後,那麼他們通常做得比平均水平要好。並非完美——只是更好一些。.


近距離觀察:治理、安全與潛移默化的影響力博弈🧯📜

這是一個不太為人所知的角色:大型科技公司常常幫助制定其他人都遵循的規則。.

它們透過以下方式影響治理:

有時候,這確實很有幫助。大型科技公司能夠投資小型公司無法負擔的安全團隊、信任工具、濫用檢測和合規基礎設施。.

有時,這種做法出於自身利益。安全措施可能成為一道護城河,只有規模最大的企業才能「負擔得起」合規成本。這就是弔詭:安全固然必要,但昂貴的安全措施卻可能意外地扼殺競爭。 (歐盟人工智慧法案 - (EU) 2024/1689 號條例

這就是細微差別發揮作用的地方。而且不是那種有趣的差別——是那種令人惱火的差別。 😬


近距離觀察:競爭、開放生態系與創業引力🧲🌱

大型科技公司在人工智慧領域的角色還包括塑造市場格局:

  • 收購(人才、技術、分銷)

  • 合作夥伴關係(雲端託管模式、企業聯合交易)

  • 生態系資金(信貸、孵化器、市場)

  • 開源工具(框架、函式庫、「準開源」版本)

我觀察到一種反覆出現的模式:

  1. 新創公司創新速度很快

  2. 大型科技公司整合或複製成功的模式

  3. 新創公司要麼轉型進入細分市場,要麼成為收購目標

  4. 「平台層」增厚

這並非全然是壞事。平台可以減少摩擦,讓人工智慧更容易被使用。但它也可能降低多樣性。如果每個產品都變成“對少數幾個API的簡單封裝”,那麼創新就如同在同一套公寓裡重新擺放家具一樣,毫無新意。.

一點點不拘泥於形式的競爭是有益的。就像酵母發酵一樣。如果你把所有東西都消毒,它就停止發酵了。這個比喻可能不太貼切,但我還是堅持用它。 🍞


既興奮又謹慎地生活著😄😟

這兩種感覺都適用。興奮和謹慎可以同時存在。.

令人興奮的理由:

  • 更快部署實用工具

  • 更好的基礎設施和可靠性

  • 降低企業採用人工智慧的門檻

  • 加強安全投資和標準化力度( NIST AI RMF 1.0OECD AI 原則

需要謹慎的理由:

一個現實的觀點是:大型科技公司既可以加速人工智慧在全球的發展,同時也加劇權力集中。這兩件事可以同時成立。人們不喜歡這個答案,因為它缺乏吸引力,但它符合事實。.


不同讀者的實用建議🎯

如果您是企業買家🧾

如果你是開發者🧑💻

  • 建置時要考慮到可移植性(抽象層有幫助)。

  • 不要把所有希望都寄託在某個可能消失的供應商功能上。

  • 像對待工作一樣追蹤費率限制、價格變化和政策更新(因為這是你的工作職責)( Apple App 審核指南Google Play 資料安全

如果您是政策制定者或合規負責人🏛️

如果你是常用用戶🙋

  • 了解 AI 功能在您的應用程式中的位置

  • 即使隱私控制功能令人煩惱,也請使用它們( GDPR - 條例 (EU) 2016/679 )。

  • 對「神奇」的結果要持懷疑態度-人工智慧自信,但並非總是正確😵


總結:大型科技公司在人工智慧領域扮演的角色🧠✨

大型科技公司在人工智慧領域扮演的角色並非單一,而是多種角色的集合:基礎設施所有者、模型建構者、分發者、把關人和市場塑造者。它們不僅參與人工智慧,更定義了人工智慧發展的格局。.

如果你只能記住一句話,那就記住這句話:

大型科技公司在人工智慧領域扮演的角色:
它們正在建立基礎設施、設定預設設置,並大規模地引導人工智慧如何惠及人類,從而產生巨大的影響。 ( NIST AI RMF 1.0歐盟人工智慧法案 - (EU) 2024/1689 號條例

沒錯,「後果」聽起來很誇張。但人工智慧就是那種「誇張」有時反而很貼切的話題。 😬🤖


常問問題

從實際角度來看,大型科技公司在人工智慧領域扮演著怎樣的角色?

大型科技公司在人工智慧領域扮演的角色與其說是“建構模型”,不如說是“運作讓人工智慧大規模運作的機制”。它們提供雲端基礎設施,透過設備和應用程式部署人工智慧,並制定平台規則來影響人工智慧的建構方式。它們也資助研究、合作和收購,從而影響哪些方法能夠存活下來。在許多市場,它們實際上定義了預設的人工智慧體驗。.

為什麼運算資源對那些能夠大規模建構人工智慧的人來說如此重要?

現代人工智慧依賴大型GPU叢集、高速網路、儲存和可靠的MLOps管線,而不僅僅是巧妙的演算法。如果無法獲得可預測的容量,訓練、評估和部署就會變得脆弱且成本高昂。大型科技公司通常控制著「脊梁」層(雲端、晶片合作、調度、安全),這決定了小型團隊的可行性。這種權力固然有利,但它終究是權力。.

大型科技公司的通路如何影響「人工智慧」對一般使用者的意義?

發行管道之所以如此強大,是因為它將人工智慧變成預設功能,而不是需要單獨選擇的產品。當人工智慧出現在搜尋列、手機、電子郵件、文件、會議和應用程式商店中時,對大多數人來說,它就變成了「人工智慧的代名詞」。這也縮小了大眾的預期:如果人工智慧在你的應用中主要是一個寫作工具,使用者就會認為人工智慧就等於寫作。平台正悄悄決定著人工智慧的基調。.

平台規則和應用程式商店作為人工智慧守門人的主要方式有哪些?

應用審核政策、市場條款、內容規則和 API 限制決定了哪些 AI 功能被允許使用以及它們的運作方式。即使規則被包裝成安全或隱私保護措施,它們也會透過提高合規和實施成本來影響競爭格局。對開發者而言,這意味著政策更新與模型更新同等重要。實際上,「最終上線的內容」往往取決於「最終通過審核的內容」。

SageMaker、Azure ML 和 Vertex AI 等雲端 AI 平台在大型科技公司在 AI 領域中扮演的角色是什麼?

雲端人工智慧平台將訓練、部署、監控、治理和安全性整合到一個平台,降低了新創企業和大型企業的營運阻力。 Amazon SageMaker、Azure 機器學習和 Vertex AI 等工具讓企業能夠透過單一供應商關係輕鬆擴展規模並控製成本。但這種便利性也可能導致供應商鎖定,因為工作流程、權限和監控都深度整合在該生態系統中。.

企業買家在採用大型科技公司的人工智慧工具之前應該問哪些問題?

首先要注意資料:資料的儲存位置、隔離方式以及現有的資料保留和稽核控制措施。詢問管理控制、日誌記錄、存取邊界以及如何評估模型在您所在領域的風險。此外,也要對定價進行壓力測試,因為隨著採用率的提高,基於使用量的成本可能會飆升。在受監管的環境中,確保預期與貴組織已使用的框架和合規性要求保持一致。.

開發者在使用大型科技公司人工智慧 API 進行開發時,如何避免被供應商鎖定?

常見的做法是設計時考慮可移植性:將模型呼叫封裝在抽象層之後,並對提示、策略和評估邏輯進行版本控制和可測試。避免依賴可能變更或消失的某個「特殊」供應商功能。將速率限制、價格更新和策略變更作為持續維護的一部分進行追蹤。可移植性並非免費,但通常比強制遷移成本更低。.

隱私和個人化如何與人工智慧功能建立「信任契約」?

個人化通常能提升人工智慧的實用性,但同時也會增加資料外洩風險,並引發人們對資料隱私的擔憂。大型科技公司掌握著行為數據、企業數據、平台數據和設備數據,因此用戶和監管機構會密切關注這些數據如何影響人工智慧的訓練、優化和產品決策。一個切實可行的衡量標準是,一家公司能否清楚地解釋其人工智慧資料實踐,而不是躲在法律條文背後。良好的數據控制和真正的退出機制至關重要。.

哪些標準和法規與大型科技公司的人工智慧治理和安全最相關?

在許多管道系統中,治理融合了內部安全策略與外部框架和法律。組織通常會參考風險管理指南(例如 NIST 的 AI RMF)、管理標準(例如 ISO/IEC 42001)以及區域法規(例如 GDPR 和歐盟 AI 法案)來應對特定用例。這些因素會影響日誌記錄、稽核、資料邊界以及哪些資料會被阻止或允許存取。挑戰在於,合規成本可能很高,這可能會使規模較大的企業受益。.

大型科技公司對競爭和生態系統的影響總是壞事嗎?

並非總是如此。平台可以降低門檻、標準化工具,並為小型團隊無法負擔的安全和基礎設施提供資金。但如果所有人都只是圍繞著少數主流API、雲端平台和市場進行簡單的封裝,同樣的動態也會降低多樣性。要警惕計算和分發資源的整合,以及難以擺脫的定價和政策變化等模式。最健康的生態系統通常會為互通性和新進入者留出空間。.

參考

  1. 國際能源總署-能源與人工智慧- iea.org

  2. 國際能源總署-人工智慧帶來的能源需求- iea.org

  3. NVIDIA - AI推理平台概述- nvidia.com

  4. 亞馬遜網路服務- Amazon SageMaker AI 文件(什麼是 SageMaker?) - aws.amazon.com

  5. 微軟Azure機器學習文件- learn.microsoft.com

  6. Google Cloud - Vertex AI 文件- cloud.google.com

  7. Google Cloud - Vertex AI 上的 MLOps - cloud.google.com

  8. 微軟-機器學習運維 (MLOps) v2 架構指南- learn.microsoft.com

  9. 蘋果開發者- Core ML - developer.apple.com

  10. 谷歌 Developers - ML Kit - developers.google.com

  11. 蘋果開發者-應用審核指南- developer.apple.com

  12. Google Play 管理中心幫助-資料安全- support.google.com

  13. arXiv -神經語言模型的尺度律- arxiv.org

  14. arXiv -訓練計算最優的大型語言模型(Chinchilla) - arxiv.org

  15. 美國國家標準與技術研究院-人工智慧風險管理架構(AI RMF 1.0) - nist.gov

  16. 美國國家標準與技術研究院- NIST 生成式人工智慧規範(AI RMF 配套規範) - nist.gov

  17. 國際標準化組織- ISO/IEC 42001:2023 - iso.org

  18. EUR-Lex -歐盟第2016/679號條例(一般資料保護條例,簡稱GDPR) - eur-lex.europa.eu

  19. EUR-Lex -法規 (EU) 2024/1689(歐盟人工智慧法案) - eur-lex.europa.eu

  20. 經合組織-經合組織人工智慧原則- oecd.ai

在官方人工智慧助理商店尋找最新人工智慧產品

關於我們

返回博客