🏫 在某些學校,聊天機器人會盤問學生的作業狀況。但人工智慧革命讓老師們感到擔憂。 ↗
澳洲一些學校正在試行一種更嚴格的「展示解題過程」方式——學生完成作業後,人工智慧聊天機器人會與他們進行一來一往的問答,以檢驗他們是否理解自己提交的內容。這本質上是一種口試,只不過是由機器來提問“你這話是什麼意思?”,直到你開始感到不自在為止。.
更大的擔憂在於推廣不均衡:一份行業報告警告稱,快速採用者可能會領先一步,而其他地區則會落後,從而造成教育體系的雙軌制。教師們也不斷強調那些老生常談且依然嚴峻的問題:隱私、福祉,以及如何防止「人工智慧輔助」演變成「人工智慧包辦一切」。.
👮 倫敦警察廳利用Palantir公司提供的AI工具來標示警員不當行為 ↗
倫敦警察廳正在使用Palantir公司提供的AI技術來分析內部員工的工作模式——包括病假、缺席和加班情況——以尋找可能與職業操守問題相關的訊號。該計畫被定位為限時試點,而且至關重要的是,倫敦警察廳表示,最終的判斷仍然由人工做出……但即便如此,人工仍然承擔著大量的工作。.
警察聯合會對此並不買賬,稱之為“自動懷疑”,並警告說,不透明的工具可能會將壓力和工作量誤判為不當行為。這就好比,這項技術在幻燈片上聽起來很棒,但當你想像它在實際應用中的感覺時,就會發現它其實很棘手。.
🛡️ 英國隱私監管機構發表聯合聲明,就人工智慧產生的圖像發出警告。 ↗
英國資訊專員辦公室 (ICO) 與其他監管機構聯合發出警告,指出未經同意使用人工智慧生成的圖像可能會描繪出可識別的人物——簡而言之:不要把「這是合成的」當作萬能的藉口。警告的重點在於儘早建立保障措施並與監管機構溝通,而不是像科技業慣常的做法那樣,先發布產品,後道歉。.
他們也強調了兒童面臨的更高風險,這不無道理,因為一旦這些東西擴散開來,就如同試圖把亮片重新裝回罐子裡一樣難。其核心觀點是,隱私和尊嚴應該經得起時尚的更迭,至少表面上看來是如此。.
🪖 根據Axios報道,美國國防部長赫格塞斯召見安特羅皮克公司首席執行官,就克勞德飛彈的軍事用途進行強硬會談。 ↗
路透社報道稱,美國國防部長將與Anthropic公司執行長會面,就Claude人工智慧模型的軍事用途展開更具對抗性的對話。據報道,五角大廈希望主要人工智慧供應商在保密網路上提供模型,並減少限制——而Anthropic公司一直抵制任何放鬆安全措施的舉措。.
言下之意就像一個經典的「快速行動,但…要動用飛彈」的兩難。如果雙方無法就保障措施達成一致,關係可能會緊張甚至破裂——但安特羅皮克公司也表示,與政府的談判仍然具有建設性,所以目前局勢緊張,但還沒有到徹底分手的地步(至少現在還沒有)。.
🧠 ChatGPT - 發行說明 ↗
OpenAI 的發布說明指出,「思考」模式的上下文視窗已擴展——這意味著你可以向模型輸入更多文本,並保持更長對話的連貫性,而不會丟失先前的細節。如果你曾經親眼目睹模型「忘記」你剛剛說過的話(真是令人抓狂),那麼這項改進正是針對這種情況而設計的。.
這是一項非常書呆子式的升級,它悄悄地改變了許多實際操作:更長的文件、更複雜的專案、更龐大的研究工作。雖然並不光鮮亮麗,但它就像管道改造一樣,能讓整個空間瞬間變得寬敞。.
常問問題
學校使用聊天機器人「審問」學生作業狀況,代表什麼?
在澳洲的一些學校,學生完成作業後,會與人工智慧聊天機器人互動,以探討他們的推理過程。這類似於口試,要求學生解釋他們所寫的內容及其原因。其目的是驗證學生的理解,而不僅僅是他們的輸出結果。當學生無法捍衛關鍵論點時,這種方式也能揭露他們的知識漏洞。.
學校裡的人工智慧聊天機器人如何造成「雙速」教育體系?
一份行業報告警告稱,行動迅速的學校可能會領先,而行動遲緩的學校則會進一步落後。如果一些學校部署人工智慧工具來評估學生的理解程度、支持學習或防止濫用,它們可能會更快地提升教學成果。而其他學校可能由於預算、人員配備或政策不明確而無法推廣類似的系統。這種不均衡的普及可能會加劇現有的資源和成績差距。.
教師如何努力阻止「AI 幫助」變成「AI 做了這件事」?
常見的做法是將評估重點從最終成果轉移到過程和解釋。聊天機器人式的提問、草稿、反思或口頭檢查等方式,都能有效防止學生提交他們不理解的作品。教師還可以對可接受的幫助方式設定更嚴格的界限,例如,允許腦力激盪而非完全重寫。重點在於展現理解,而不是監管每種工具的使用。.
在課堂上使用人工智慧會引發哪些隱私和福祉問題?
教師們不斷對學生資料的收集方式、儲存地點以及存取權限提出質疑。如果學生感到持續受到監控或因機器主導的提問而承受壓力,也會引發他們的身心健康問題。兒童是一個特殊的風險群體,因為敏感資訊可能以意想不到的方式在系統中傳播或長期存在。許多學校力求儘早建立安全保障措施,而不是事後補救。.
倫敦警察廳如何利用 Palantir 提供的 AI 來標記潛在的警員不當行為?
倫敦警察廳正在使用Palantir公司提供的AI技術來分析員工的工作模式,例如病假、缺席和加班。其目的是發現可能與職業操守問題相關的訊號。該項目被描述為有時限的試點計劃,倫敦警察廳表示,最終的判斷仍由人工完成。批評人士認為,如果該工具將壓力解讀為不當行為,那麼它可能會讓人感覺像是「自動懷疑」。.
為什麼警察工會擔心人工智慧監督工具帶來的「自動懷疑」?
警察聯合會擔心,不透明的模型可能會將一些看似無害的模式推斷為不當行為。工作量激增、健康問題和壓力都可能導致出席率或加班時間的變化,但這並不意味著不當行為。如果工具的邏輯不透明,警員就更難對標記提出質疑,管理人員也更難設定合理的閾值。即使由人來做決定,自動化訊號仍然會影響最終結果。.
英國資訊專員辦公室(ICO)對人工智慧生成的可識別人物圖像發出的警告是什麼?
英國隱私監管機構與其他監管機構一道發出警告:「合成」並不代表可以免責。如果未經同意,人工智慧生成的圖像描繪了可識別的人物,那麼隱私和尊嚴風險仍然存在。監管機構強調,應儘早建立保障措施並進行監督,而不是先發布後實施。他們也指出,兒童面臨的風險更高,因為一旦內容傳播開來,危害可能會迅速擴大。.
據報道,五角大廈向人本公司施壓,要求將 Claude 機器人用於軍事用途,背後究竟隱藏著什麼?
路透社報道稱,美國國防部長將與Anthropic公司執行長會面,就Claude人工智慧模型的軍事用途展開更深入的諮詢。據報道,五角大廈希望主要人工智慧供應商在保密網路上提供模型,並減少限制。 Anthropic公司一直抵制放寬安全措施,並指出雙方在安全保障措施方面存在分歧。儘管雙方都表示會談仍將維持建設性,但目前雙方關係似乎較為緊張。.
ChatGPT 版本說明中關於「思考」模式上下文長度有哪些變化?
OpenAI 的發布說明指出,「思考」模式的上下文視窗已擴展,允許在單一執行緒中容納更多文字。實際上,這有助於處理長篇文件、複雜專案以及需要關注早期細節的多步驟研究。這與其說是一項酷炫的功能,不如說是一項底層架構的升級。其主要優勢在於,在長時間的會話中,能夠減少細節損失。.