人工智慧新聞 2026年3月4日

人工智慧新聞綜述:2026年3月4日

🏛️ 政府將建立新的實驗室,以確保英國在人工智慧突破方面保持領先地位。

英國正在籌建一個政府支持的基礎人工智慧研究實驗室,並將其定位為「藍天」研究——這類研究風險高、進展緩慢,但有時卻能帶來驚人的回報,讓其他人相形見絀。 ( GOV.UK

重點不僅僅是“更大的模型,更多的GPU”,而是要解決諸如幻覺、記憶短暫和推理不可預測等長期存在的缺陷,並透過人工智慧研究資源為研究人員提供強大的計算能力。這聽起來非常合理……而且,悄悄地,這似乎也是為了防止英國最優秀的人才被其他地方迅速吸走。 ( GOV.UK

🧨 英偉達CEO暗示將終止對OpenAI和Anthropico的投資

黃仁勳暗示,英偉達可能不會再像以前那樣投資前沿人工智慧實驗室——IPO的運作機制(以及正在討論的巨額資金)使得這種融資方式更難實現。 (路透社

這是一個值得注意的語氣轉變:英偉達一直是這波礦業繁榮的領導企業,但它暗示「持有礦業公司的股份」不再是長久之計。或許這只是CEO們慣用的伎倆,就像呼吸一樣自然。 (路透社

🧩 獨家報導:大型科技集團支持Anthropologie與五角大廈的鬥爭,投資者力促緩和人工智慧安全保障方面的衝突

人為因素公司與五角大廈的僵局正演變成一場徹底的危機——據報道,投資者希望緩和局勢,而該公司則試圖在保障條款(尤其是在監控方面)上堅持己見。 (路透社

這篇報導的潛台詞幾乎比正文更引人注目:在人工智慧時代,合約措辭並非“法律上的吹毛求疵”,它本質上就是產品政策——它決定著一個模型最終會成為工具、武器,還是一個龐大的隱患。 (路透社

🪖 山姆·奧特曼承認,OpenAI無法控制五角大樓對人工智慧的使用。

據報道,奧特曼告訴員工,OpenAI無法控制五角大樓在部署其人工智慧系統後如何使用該系統——這番話可謂一針見血,因為它恰恰道出了人們一直以來的擔憂。 ( 《衛報》)

更廣泛的背景是「我們會提供幫助,但要有規則」和「我們會提供幫助,就這麼簡單」之間日益加劇的摩擦,以及當軍方採納的方案顯得倉促或投機取巧時,內部和公眾的強烈反對。這裡的倫理問題與其說是一條清晰的界限,不如說是一灘濕油漆——每個人都踩進去,然後爭論是誰踩的。 ( 《衛報》)

🧬 桑格研究所和谷歌DeepMind聯合推出基因組學人工智慧新研究員項目

韋爾科姆桑格研究所即將啟動一項由DeepMind資助的學術獎學金項目,專注於將人工智慧應用於基因組學——這是DeepMind在該領域設立的首個此類研究員職位。 ( sanger.ac.uk )

有趣(坦白說,也讓人耳目一新)的是,它強調了人工智慧尚未普及的、尚未被充分探索的基因組學問題——此外,它還明確指出DeepMind並不指導研究員的研究。這就像給某人一枚火箭,然後說“去發現點什麼”,而不是“去優化我們的路線圖”。 ( sanger.ac.uk

常問問題

英國政府支持的基礎人工智慧研究實驗室是什麼?它將做什麼?

政府支持的基礎人工智慧研究實驗室被定位為「藍天」研究計畫——高風險、可能需要時間才能見效。它並非僅僅專注於擴展規模越來越大的模型,而是致力於解決諸如幻覺、短記憶和不可預測推理等長期存在的問題。其核心理念是,突破源自於基礎研究,而非僅增加GPU的數量。.

英國基礎人工智慧研究實驗室如何幫助研究人員獲得強大的運算能力?

除了英國基礎人工智慧研究實驗室之外,該計畫還強調透過人工智慧研究資源來獲取大量運算資源。實際上,這意味著研究人員可以進行一些原本會因為成本或基礎設施限製而無法進行的實驗。此外,它還使團隊能夠大規模地測試各種想法,從而將可靠性和穩健性等問題具體化,而不僅僅停留在理論層面。.

為什麼英國如此重視幻覺、記憶力減退和思考不可預測性?

這些弱點會在部署過程中暴露出來,並迅速侵蝕信任。既定的重點表明,目標不僅是能力,更是可靠性——減少虛假輸出,改進模型處理更長上下文的能力,並使推理更加穩定。這類工作通常耗時更長、風險更高,因此被視為基礎研究。.

英偉達在投資 OpenAI 或 Anthropico 議題上的態度轉變,究竟預示著什麼?

報告暗示,英偉達可能不會像以往那樣繼續投資前沿實驗室,尤其是在IPO機制和巨額投資規模使這一策略變得複雜的情況下。即使作為人工智慧硬體領域的“實干家”,這也表明股權投資並非總是最佳選擇。當然,這也可能是一種謹慎的表態,高階主管言論也常出現這種情況。.

為什麼人類研究所與五角大廈就「保障條款」的爭議會引起如此大的關注?

文章的關鍵在於,合約措辭可能演變為產品政策——尤其是在涉及監控和其他敏感用途時。據報道,投資人希望緩和衝突,而該公司則試圖堅持其安全保障措施。在許多人工智慧部署中,這些條款決定了系統的用途以及公司實際承擔的風險。.

Sam Altman 說 OpenAI 無法控制五角大廈如何使用人工智慧,這代表什麼?

它描述了一個實際的限制:一旦工具部署完畢,最初的開發者可能難以控制後續的使用。這一點至關重要,因為它指出了人們對軍事應用的核心擔憂——規則或許在合約階段就已存在,但執行起來卻困難重重。這也反映了「有約束的幫助」和「無條件的幫助」之間更廣泛的矛盾。

昨日人工智慧新聞:2026年3月3日

在官方人工智慧助理商店尋找最新人工智慧產品

關於我們

返回博客