⚖️ Anthropic公司提起訴訟,試圖阻止五角大廈因人工智慧使用限製而將其列入黑名單。 ↗
Anthropic公司在被貼上供應鏈風險標籤後,已將與五角大廈的爭端訴諸法庭。該公司稱,此舉是對其拒絕放鬆對自主武器和國內監控的限製而進行的非法報復——這使得這場爭端成為目前人工智慧政策領域最具爭議的焦點之一。 (路透社)
政府希望人工智慧技術能夠「在任何合法用途」下保持靈活性,而人智公司則認為,應該允許私人實驗室劃定嚴格的安全界線。這已成為迄今為止對人工智慧公司能否在不被強行壓制的情況下拒絕軍方條款的最明確考驗之一。 (路透社)
🧑💻 OpenAI 和Google的員工都支持 Anthropic 對五角大廈提起的訴訟。 ↗
這場訴訟很快也得到了競爭對手實驗室內部的支持。近40名來自OpenAI和Google的員工在一份法庭之友意見書中支持Anthropic,他們認為,因人工智慧安全底線而對公司進行報復有損公共利益。 ( The Verge )
所以,沒錯,競爭對手們突然發現自己站到了同一條陣線——至少在這一點上是這樣。簡報重點在於大規模監控和不可靠的自主武器,這使得整件事與其說是矽谷常見的互相攻擊,不如說是業界真正的分水嶺……或者說是泥潭。 ( The Verge )
🛡️ OpenAI 收購 Promptfoo 以確保其人工智慧代理的安全 ↗
OpenAI宣布將收購Promptfoo,這是一家專注於保護大型語言模式免受對抗性攻擊的新創公司。 OpenAI計畫將Promptfoo的技術整合到其針對人工智慧代理的企業級平台OpenAI Frontier。 ( TechCrunch )
這是一個意味深長的舉動。每個人都希望智能體人工智慧能夠做得更多、更快、更全面——但安全方面卻一直落後,無論差距大小。這項交易表明,OpenAI 認為下一場重大競賽不僅在於更聰明的智能體,還在於更安全的智能體。 ( TechCrunch )
🧪 Anthropic推出程式碼審查工具,以檢查大量人工智慧產生的程式碼。 ↗
Anthropic 在 Claude Code 中推出了程式碼審查功能,旨在幫助團隊應對 AI 編碼工具產生的海量 pull request。它使用多個代理並行掃描程式碼,標記邏輯問題,評估嚴重程度,並直接在 GitHub 上留下評論。 ( TechCrunch )
其理念很簡單——人工智慧產生程式碼的速度遠超人類進行有效審查的能力,因此現在人工智慧必須審查自身程式碼。這有點像蛇吞尾,但卻很實用。 Anthropic 表示,該產品面向已經從 Claude Code 獲得大量程式碼輸出的企業用戶。 ( TechCrunch )
💰 英偉達支持的 Nscale 在新一輪融資中估值達 146 億美元 ↗
英國人工智慧基礎設施公司Nscale在C輪融資中籌集了20億美元,估值達到146億美元。投資者包括Aker、8090 Industries、英偉達、Citadel、戴爾和Jane Street——這無疑是對該公司投下的相當有力的信任票。 (路透社)
這件事之所以重要,是因為它並非又一次新機型發布或聊天機器人小幅調整。它觸及了繁榮背後的實際操作層面——運算能力、基礎設施、產能,以及所有幕後的重型機械。或許並不光鮮亮麗,但大量資金正湧向這裡。 (路透社)
🧠 Yann LeCun 的 AMI Labs 籌集了 10.3 億美元,用於建立世界級模型 ↗
Yann LeCun 的新公司 AMI Labs 融資 10.3 億美元,投前估值達 35 億美元。該公司致力於開發「世界模型」——旨在從現實本身而非主要從語言中學習的人工智慧系統。 ( TechCrunch )
這直接挑戰了目前以語言模型為主導的共識,而且措辭相當直白。勒昆多年來一直認為,如今的語言模型無法讓我們達到人類智慧水平,因此,這項加薪將這一論點變成了一項代價高昂的實驗。 ( TechCrunch )
🇨🇳 儘管有安全隱患,中國科技中心仍在推廣OpenClaw人工智慧代理。 ↗
儘管有因取得個人資料而引發的安全隱患,但中國多個地方政府仍在支持人工智慧助理OpenClaw的快速傳播。因此,官方的態度似乎是:是的,存在風險——但即便如此,我們也要擴大其規模。 (路透社)
這種分歧正是問題的關鍵。本地中心希望獲得經濟效益和生態系統發展勢頭,而監管機構則警告資料外洩的風險。這似乎已成為人工智慧領域常見的模式——先衝刺,後再完善保障措施。 (路透社)
常問問題
Anthropic公司為何就人工智慧使用限制問題起訴五角大廈?
Anthropic公司稱,五角大廈在該公司拒絕接受可能涵蓋自主武器和國內監控的更廣泛條款後,將其列為供應鏈風險。這使得這場訴訟的意義遠不止於供應商身分的認定。它正在檢驗一家人工智慧實驗室能否在嚴格遵守安全限制的前提下,繼續參與政府專案的競爭而不受到懲罰。.
為什麼 OpenAI 和 Google 的員工會在這次人工智慧安全糾紛中支援 Anthropico?
這份法庭之友意見陳述表明,許多競爭對手實驗室的人士認為,這不僅僅是一家公司與一個機構之間的爭端,而是一個具有里程碑意義的人工智慧安全問題。他們擔心,懲罰一家供應商堅持底線可能會迫使整個市場削弱安全保障措施。實際上,這可能會影響未來國防和公共部門人工智慧合約的談判方式。.
人類學與五角大廈的這起案件可能會對人工智慧政策和國防合約產生哪些影響?
如果 Anthropic 勝訴,人工智慧公司或許能更有力地界定哪些用途屬於不可接受的範疇,即便是向敏感的政府機構銷售產品時也是如此。如果 Anthropic 敗訴,政府機構可能會獲得更大的籌碼,要求供應商提供更廣泛的「合法用途」條款。無論結果如何,這場糾紛都可能影響採購條款、風險評估以及國防交易中安全保障措施的製定方式。.
OpenAI為何收購Promptfoo用於人工智慧代理?
Promptfoo 以測試大型語言模型對抗對抗性提示和其他安全漏洞而聞名。將這類工具整合到 OpenAI 的企業代理平台中,顯示該公司將更安全的部署視為一項競爭優勢,而非一項附屬任務。隨著人工智慧代理承擔更多實質工作,其彈性和濫用測試變得越來越不容忽視。.
團隊如何更安全地處理大量人工智慧產生的程式碼?
Anthropic 在 Claude Code 中推出的全新程式碼審查功能旨在幫助團隊應對 AI 編碼工具產生的海量 pull request。它利用多個智能體並行運行,識別邏輯問題,評估其嚴重程度,並在 GitHub 上留下評論。通常,這類工具可以幫助處理大量 pull request,但人工審查對於架構、上下文和最終審批仍然至關重要。.
為什麼人工智慧基礎設施現在會獲得如此多的投資?
Nscale 的最新一輪融資凸顯出人工智慧產業仍在向運算、基礎設施和容量方面投入巨資。這些支出或許不如引人注目的模型發布那麼顯眼,但卻是其他一切的基礎。當訓練和部署的需求持續成長時,那些提供運算工具和基礎設施的公司往往會成為最大的贏家之一。.
什麼是世界模型?為什麼 Yann LeCun 看好世界模型?
世界模型是一種人工智慧系統,它旨在從世界運行規律中學習,而不是主要依賴語言資料。這一點至關重要,因為 Yann LeCun 長期以來一直認為,語言模型本身不太可能達到人類智慧水平。 AMI Labs 將這一觀點轉化為一項重大的商業投資,押注於一條通往先進人工智慧研究新路徑的道路。.
儘管有安全警告,中國科技中心為何仍支持 OpenClaw?
OpenClaw 的案例揭示了快速發展的科技市場中常見的權力鬥爭:地方政府希望獲得成長、補貼和生態系統發展動力,而監管機構則擔憂資料外洩和安全問題。儘管面臨警告,地方政府仍然支持 OpenClaw,這表明在某些地區,經濟利益佔據了主導地位。對觀察家而言,這再次提醒我們,技術採納的速度往往快於監管的速度。.