🤖 OpenAI硬體負責人因與五角大廈達成協議而辭職 ↗
OpenAI硬體和機器人負責人凱特琳·卡利諾夫斯基在公司與五角大廈達成協議後辭職,她表示,在模型獲準用於機密國防網路之前,公司內部並未對此進行充分討論。她最主要的擔憂非常直接——人為監督、監控邊界以及致命自主技術發展過快的風險。 (路透社)
OpenAI表示,該協議包含額外的保障措施,並且仍然禁止在國內進行監控和使用自主武器。然而,這次辭職讓整個事件看起來不像是一次順利的政策更新,而更像是會議進行到一半時,一扇防火門突然關上。 (路透社)
🏗️ 根據彭博社報道,甲骨文和OpenAI放棄了在德州擴建資料中心的計畫。 ↗
據報道,由於融資談判陷入僵局且OpenAI的計算需求發生變化,甲骨文和OpenAI已取消擴建其位於德克薩斯州阿比林的大型人工智慧資料中心的計劃。該資料中心是更廣泛的「星門」(Stargate)基礎設施建設項目的一部分,因此這絕非小事。 (路透社)
現有園區仍在運營,相關公司表示,規模更大的多吉瓦級基礎設施建設項目仍在其他地方繼續進行。同時,先前擱置的擴建案或許會為Meta公司帶來機會,據報道,該公司已就租賃該地塊進行過洽談。人工智慧基礎設施的建設就像濕水泥一樣,一直在不斷變化——沉重、昂貴,而且永遠無法完全穩定下來。 (路透社)
⚖️ 五角大廈將Anthropic列為供應鏈風險。 ↗
五角大廈正式將安特羅皮克公司列為供應鏈風險企業,並限制其研發的「克勞德」無人機在國防部合約中的使用,因為該公司拒絕放鬆對自主武器和大規模監控的安全保障措施。這就是事件的核心──一場採購之爭演變成一場影響深遠的價值之爭。 (路透社)
人類研究所表示,此舉在法律上站不住腳,並計劃提起訴訟。對於一家美國人工智慧實驗室而言,這一認定異常嚴厲,也凸顯了關於前沿科技公司是否應該在國防合約中寫入更嚴格的規則,還是應該相信現有法律能夠發揮作用的更廣泛分歧……而並非所有人都願意這樣做。 (路透社)
💬 Meta允許WhatsApp上的人工智慧競爭對手存在,以期避免歐盟採取行動。 ↗
在歐盟反壟斷監管機構的壓力下,Meta公司表示將允許競爭對手的AI聊天機器人透過其商業API在歐洲的WhatsApp平台上線一年。此前,競爭對手抱怨Meta公司實際上阻礙了他們的發展,卻偏袒自己的助手——考慮到分發在人工智慧領域的重要性,這一點尤其關鍵。 (路透社)
但問題在於,這種准入需要付費,批評人士認為這仍然使規模較小的競爭對手處於劣勢。監管機構正在決定這項讓步是否足夠,因此這與其說是一項和平協議,不如說是一個包裹在文書中的暫停鍵。 (路透社)
📜 xAI 阻止加州人工智慧數據揭露法案的努力失敗 ↗
xAI試圖阻止加州一項法律生效,該法律要求人工智慧公司披露更多關於用於訓練模型的數據信息,但最終失敗。法院拒絕阻止該法律生效,這意味著xAI現在面臨著與其他模型建構者一直試圖規避的透明度壓力,而這些規避方式有時顯得笨拙。 (路透社)
這至關重要,因為訓練資料之爭不再只是學術探討或版權相關問題,而是正在成為一個實際存在的合規問題。對於已經因 Grok 而屢遭安全爭議的 xAI 公司而言,這無疑又為其增添了一項監管方面的壓力。 (路透社)
常問問題
為什麼 OpenAI 的硬體和機器人負責人會在五角大廈交易後辭職?
凱特琳·卡利諾夫斯基辭職是因為她認為批准用於機密防禦網絡的模型這一決定沒有經過充分的內部討論。她主要擔憂的是人為監督、監控限制以及致命自主武器發展過快的風險。 OpenAI表示,該協議仍然禁止國內監控和使用自主武器,但卡利諾夫斯基的辭職表明,內部辯論尚未完全解決。.
五角大廈將Anthropic公司列為供應鏈風險,這究竟意味著什麼?
這意味著克勞德將被限制用於國防部合同,這對採購而言是一次重大挫折。文章指出,爭議的焦點在於安特羅皮克公司拒絕削弱與自主武器和大規模監控相關的安全措施。安特羅皮克公司認為這項認定缺乏法律依據,並計劃提起訴訟,因此這可能演變成一場法庭之爭和政策考驗。.
為什麼取消德州資料中心擴建計畫會對人工智慧產業新聞產生影響?
阿比林擴建工程的擱淺之所以重要,是因為它是更廣泛的「星門」基礎設施建設計畫的一部分,與長期的人工智慧運算規劃息息相關。路透社報道稱,現有園區仍在運營,但融資延遲和不斷變化的運算需求導致甲骨文和OpenAI放棄了擴建計畫。這也表明,即使其他地區的整體建設仍在繼續,大型人工智慧基礎設施項目也可能迅速變化。.
為什麼 Meta 允許競爭對手的 AI 聊天機器人進入歐洲的 WhatsApp 平台?
在歐盟反壟斷監管機構的壓力以及外界對其偏袒自家助手、限制競爭對手的投訴下,Meta 採取了這項措施。此次存取權限是臨時性的,並且透過企業 API 實現,因此並不等同於完全開放的政策。用戶仍需支付費用,這意味著即使在做出讓步之後,規模較小的競爭對手仍可能面臨實際的劣勢。.
加州的人工智慧訓練資料揭露法對 xAI 意味著什麼?
法院拒絕阻止該法律生效,這意味著xAI現在必須應對圍繞訓練資料新增的透明度要求。這一點至關重要,因為模型開發者通常會試圖避免詳細披露信息,尤其是在數據來源敏感或有爭議的情況下。實際上,訓練資料正逐漸成為一個需要積極遵守的法律問題,而不再只是關於研究規範或版權風險的爭論。.
本週人工智慧產業新聞最重要的訊息是什麼?
共同點在於,人工智慧的發展不再僅僅受產品發布的影響,而是更多地受到治理、基礎設施和監管的限制。國防合作引發了內部衝突,運算能力的擴展成本高且變化莫測,監管機構也對資訊取得和揭露施加了更大的壓力。文章指出,OpenAI、Anthropic、Meta 和 xAI 等公司都面臨著這樣的困境:整個產業被迫更公開地展示其權衡取捨。.