🦞 OpenClaw創辦人Steinberger加入OpenAI,開源機器人成為基金會 ↗
Peter Steinberger 將加入 OpenAI,致力於推進「個人代理」項目,而 OpenClaw 本身則會被納入一個基金會,以保持其開源狀態(並獲得支持)。這種劃分方式……相當巧妙——聘請開發者,同時保持專案的公開性。.
OpenClaw 的理念非常實用:郵件分類、保險文件處理、航班報到、以及各種瑣碎的生活雜務。它在 GitHub 上也迅速走紅,而這種受歡迎程度也引發了人們對安全性的擔憂,尤其是在用戶部署不當的情況下。.
🪖 報道稱,五角大廈對Anthropic公司就軍方使用Claude人工智慧模型一事所採取的反對態度感到“厭煩”,可能終止合作關係。 ↗
核心分歧在於:五角大廈希望獲得廣泛的、「所有合法用途」的權限,而安人智公司仍在努力對完全自主武器和大規模監控設定嚴格的限制。這種分歧聽起來像是哲學探討,直到有人說:“我們可能會取代你。”
一個常被忽略的細節是──官員不希望這個模型突然中斷工作流程,也不希望沒完沒了地處理各種極端情況(這很合理……但也讓人擔憂)。這裡存在著一種「誰掌握著關鍵權力」的緊張關係,而且這種緊張關係並不隱晦。.
🧠 新創公司建構模型以預測人類行為 ↗
Simile 融資 1 億美元,用於建立一個「有限學習」模型,旨在預測人們的行為——尤其包括預測財報電話會議等場合中可能出現的問題。目標明確,雄心勃勃,這種組合略顯詭異。.
這種方法依賴對真實使用者的訪談和行為研究數據,然後利用旨在模擬真實偏好的AI代理進行模擬。這就像為人類決策建立一個天氣模型……聽起來似乎不可能,但實際上並非如此。.
🧑⚖️ 獨家消息:白宮施壓猶他州議員,要求其否決人工智慧透明法案 ↗
猶他州一項旨在提高人工智慧透明度的州級提案正遭到白宮的直接施壓,官員敦促該法案的發起人不要推進該法案。該法案的核心在於透明度和兒童安全——單從表面上看,這很難讓人反駁。.
但更大的爭論在於管轄權:誰有權制定規則,是州政府還是聯邦政府?沒錯,這簡直是一場混戰——就像兩個人同時握住同一個方向盤,都堅稱自己才是冷靜的一方。.
🎬 繼迪士尼發出威脅後,位元組跳動承諾防止未經授權的智慧財產權在人工智慧視訊工具中使用。 ↗
迪士尼就位元組跳動的AI影片產生器發出停止侵權通知,位元組跳動表示正在加強安全措施,防止未經授權使用其智慧財產權和肖像權。據稱,迪士尼的投訴是該工具可以隨意生成一些知名IP角色,就好像它們是…公共領域的貼紙一樣。.
這是所有人預料之中的碰撞:病毒式傳播的AI視訊工具發展迅猛,工作室卻訴諸法律,「我們會增加安全措施」成了默認的道歉措辭。令人意想不到的是,技術層面看似神奇,而法律層面卻如同重力般難以跨越。.
常問問題
OpenClaw 的創辦人加入 OpenAI,而 OpenClaw 則轉為基金會,這代表什麼?
這標誌著建構「個人代理」的個人與專案本身繼續由公眾管理之間的分歧。斯坦伯格加入 OpenAI 表明他將專注於在那裡推進代理類產品的發展。將 OpenClaw 置於基金會的管理之下,旨在保持其開源狀態並獲得可持續的支援。實際上,此舉旨在維護社區信任,同時讓開發者前往資源更豐富的地區。.
為什麼 OpenClaw 式人工智慧代理專注於處理電子郵件和文書工作等瑣事?
因為「生活管理」工作重複性高、規則性強且耗時,所以非常適合自動化。這裡舉的例子——電子郵件分類、保險文件處理和航班報到——都是目標明確、成功標準清晰的任務。這種專注能讓代理人比那些工作內容更開放的助理更快感受到自己的價值。這也凸顯了為什麼當代理人接觸個人帳戶時,嚴格的存取控制至關重要。.
如何在不產生安全性問題的情況下部署像 OpenClaw 這樣的開源 AI 代理程式?
對待它要像對待能夠存取敏感資料的軟體一樣,而不是像對待玩具腳本一樣。常見的做法是鎖定憑證,將權限限制在最低限度,並保留日誌和稽核追蹤。在受限環境中運行它,並將其與高價值系統隔離。許多安全隱患源自於部署不當,尤其是在沒有強有力的安全措施的情況下暴露端點或令牌。.
為什麼五角大廈對 Anthropic 公司限制 Claude 用於軍事用途感到不滿?
這場爭議的核心在於權限範圍和控制權:五角大廈希望獲得「所有合法用途」的廣泛權限,而安人智公司則被描述為對完全自主武器和大規模監控設定嚴格限制。官員們也不希望模型在工作流程中途中斷或引發無休止的特殊情況談判。這種矛盾遠比聽起來要具體得多——它關乎誰來決定模型在實際操作中可以做什麼。.
新創公司如何嘗試利用人工智慧預測人類行為?為什麼這種做法會引發爭議?
這裡提到的Simile公司正在探索一種「有限學習」模型,旨在預測人們的行為,包括預測在財報電話會議等場合可能出現的問題。該方法融合了訪談、行為研究數據以及使用人工智慧代理進行的模擬,這些代理旨在模擬真實用戶的偏好。這種方法令人感到有些詭異,因為它將人工智慧從響應用戶轉變為預測用戶。其挑戰在於如何控制預測的局限性,避免過度自信。.
當人工智慧視訊工具產生受版權保護的角色時會發生什麼?就像字節跳動與迪士尼的衝突?
報道中的模式並不陌生:工作室發出停止侵權通知,平台則透過加強安全措施來防止未經授權的智慧財產權或肖像權使用。在許多工具中,這些安全措施意味著更嚴格的內容過濾、更精準的可識別角色偵測以及更清晰的使用者政策執行。其根本衝突在於速度與責任──病毒式傳播速度極快,而版權保護卻如同重力一般不可阻擋。隨著視訊生成器的普及,預計此類衝突將會更加頻繁。.