人工智慧新聞 2026年1月18日

人工智慧新聞綜述:2026年1月18日

💰 Sequoia悄悄加入Anthropic的巨額投資計劃

紅杉資本——這家已與多家大型人工智慧實驗室關係密切的公司——據報導將參與Anthropico的巨額融資。無論人們是否承認,此舉都讓「利益衝突」的爭論更加激烈。.

據說此輪融資還包括其他重量級投資,這將進一步推動 Anthropic 躋身頂級估值公司行列。泡沫的陰影揮之不去。令人惱火的是,這或許也將成為新的常態。.

📢 ChatGPT 這次真的開始跨足廣告領域了

據稱,OpenAI正在美國部分低價套餐用戶中測試廣告,而高價套餐則保持無廣告狀態。 OpenAI承諾廣告不會影響答案——理論上令人放心,但人們的信任本能還是會略感不安。.

更深層的含義很簡單:推理成本很高,單靠訂閱可能無法永遠覆蓋所有成本……至少表面看來是如此。不過,當你第一次在聊天機器人附近看到「贊助」字樣時,你的思考方式會發生一些變化。氣氛也會跟著改變。.

📚 出版商試圖聯手起訴Google的人工智慧訓練案。

一群出版商正試圖加入一項訴訟,指控谷歌使用受版權保護的作品來訓練其人工智慧系統。這場法律糾紛不斷擴大,就像冰面上的裂縫,你總能聽到它的聲音,卻始終無法確定裂縫的確切位置。.

如果法院允許他們介入,案件的焦點可能會集中在訓練資料的「許可」和「付費」究竟意味著什麼。每個人都想要一個先例——顯然,最好是對自己有利的先例。.

🕳️ 據報道,一種「快速注入」技巧透過會議數據幹擾了 Gemini 系統。

研究人員描述了一種「間接提示注入」式攻擊,惡意指令隱藏在看似正常的文字內容中,然後當使用者提出一些看似無害的問題時,助手程式會跟隨這些指令運行。無需惡意軟體,也無需任何花哨的技巧——僅僅是經過武器化的文本,既詭異又令人作嘔。.

這提醒我們,「LLM讀取不受信任的文字」並非什麼有趣的功能——它代表著一個完整的安全隱患。這就像讓陌生人整天往你口袋裡塞紙條,然後當發現其中一張是陷阱時,你卻裝作很驚訝一樣。.

🎮 Razer 的 CEO 表示,遊戲玩家“其實已經喜歡人工智慧了”,他們只是討厭這個標籤。

Razer 在 CES 上的演講專注於將 AI 作為遊戲開發工作流程的實用工具——品質保證、迭代等等——以及一些類似助手的概念,這些概念感覺一半有用,一半像科幻道具。.

他們其實也承認了品牌定位的問題:玩家不想要“AI垃圾”,但他們確實想要更聰明的工具和更流暢的體驗。叫它“輔助”,人們點頭同意;叫它“AI”,人們就會群起而攻之……有時是這樣。.

⚖️ 法院制定了律師使用生成式人工智慧的規則

法院發布的指導意見基本上概括為:當然,可以使用人工智慧產生的內容——但作品的所有權仍然歸你所有。你不能將你的專業判斷外包給文字產生器,然後對它自信滿滿地「創作」出的東西表示震驚。.

有趣的是,除非法官要求,否則無需披露——但問責制才是其真正的核心所在。人工智慧可以起草和整理文件……也能像一個過度自信、富有虛構天賦的實習生一樣,憑空想像。.

常問問題

紅杉資本參與 Anthropic 的巨額融資對人工智慧投資和利益衝突意味著什麼?

這表明,大型投資者可能會繼續同時投資多家頂尖人工智慧實驗室,不出所料,這再次引發了關於「是否存在利益衝突」的爭論。當同一檔基金投資多家實驗室時,人們便會開始仔細檢視其激勵機制、投資管道和競爭優勢。這次報道的巨額融資也凸顯了投資額度和估值飆升的趨勢,儘管「泡沫」的陰影依然揮之不去。.

ChatGPT 在免費或低價套餐中是否包含廣告?這些廣告會影響答案嗎?

報導稱,OpenAI正在美國部分低價套餐用戶中測試廣告,而高價套餐則保持無廣告狀態。報導還聲稱廣告不會影響答案,這聽起來似乎令人放心,但實際上仍可能影響人們對信任的認知。言下之意是經濟因素:推理成本高昂,訂閱模式未必能永遠涵蓋所有費用。.

為什麼出版商要加入Google人工智慧訓練訴訟案?

一群出版商正尋求加入一項訴訟,該訴訟指控谷歌使用受版權保護的作品來訓練人工智慧系統。如果法院允許他們加入,此案的焦點可能會集中在訓練資料的「許可」和「報酬」究竟應該如何界定。參與者越多,通常意味著對明確先例的壓力就越大——尤其是在誰能獲得補償以及補償條件方面。.

什麼是「間接提示注入」攻擊?為什麼它在人工智慧技術新聞中如此重要?

這種攻擊方式將惡意指令隱藏在看似正常的文字內容中,並在使用者發出看似無害的請求時,由助手程式執行這些指令。其核心問題在於,該模型會讀取不受信任的文本,將日常文件和訊息變成潛在的威脅目標。它的吸引力在於,它無需傳統惡意軟體即可運作——只需將惡意指令嵌入文字內容即可。.

為什麼遊戲玩家不喜歡「人工智慧」這個標籤,但仍然想要人工智慧工具?

Razer 的 CEO 認為,玩家們已經喜歡上了 AI 帶來的實際好處——更快的品質保證、更流暢的迭代和工作流程輔助工具——但卻對 AI 的品牌形象持負面態度。他們通常擔心的是“AI 粗製濫造”,或者感覺內容敷衍了事、缺乏真實感。如果將 AI 重新定義為「輔助」或實用功能,就能讓它感覺像是提升體驗的工具,而不是取代創造力的工具。.

法院的規定對使用生成式人工智慧的律師意味著什麼?他是否必須揭露相關資訊?

相關指導原則非常明確:律師可以使用生成式人工智慧,但仍需對工作負責,不能將專業判斷外包給文字產生器。風險在於可能出現幻覺——即律師自信地捏造事實或引文——因此,核實和問責仍然至關重要。據報道,除非法官要求,否則無需披露相關信息,但其核心信息仍然是:律師要對結果負責。.

昨日人工智慧新聞:2026年1月17日

在官方人工智慧助理商店尋找最新人工智慧產品

關於我們

返回博客