喂,大家好呀!今日 Microsoft 宣佈咗 adlfs 最新版本 2025.8.0 出爐喇,呢個係一個超方便嘅 Python 檔案系統介面,專門用嚟連繫 Azure Blob Storage 同 Azure Data Lake Storage 呀。
數據專家成日要面對程式碼同雲端儲存之間嘅橋樑問題,無論規模幾大都一樣。Python 嘅 fsspec 標準就係萬能嘅『檔案適配器』,而 adlfs 就係佢專門為 Azure 打造嘅高效門戶喇。雖然任何 Python 程式碼都可以用 adlfs,但佢特別厲害嘅地方係原生整合咗 Dask、Pandas、Ray、PyTorch、PyIceberg 等框架,對於 Azure 中心嘅 ML、數據科學同 ETL 工作負載嚟講,係絕佳選擇。例如開發者可以用 adlfs 載入數據集同儲存模型檢查點到 Azure,用 PyTorch 同 PyTorch Lightning 都得。
呢啲 adlfs 嘅改進,一次過惠及晒廣泛嘅 AI/ML 工具。令 Azure Storage 喺 adlfs 入面更快更可靠,每個用 fsspec 嘅工具,從 PyTorch 到 pandas,都喺 Azure 上得到提升。唔使額外整合,轉換自本地檔案或其他雲端檔案到 Azure,通常只需改改檔案路徑(例如由 file:// 或 s3:// 改成 az://)或設定一吓就得。
2025.8.0 版本帶來幾個重點提升,集中喺效能、彈性同易用性。總括嚟講,呢個更新提供更快嘅檔案操作(透過並行上傳),同埋更好嘅可靠性(預設區塊大小由 1 GiB 減到 50 MiB,減少超時同連接問題,仲修復咗地理冗餘儲存嘅情況)。寫大檔案快咗兩至五倍,因為支援並發區塊上傳;預設區塊大小減低,解決咗大檔案上傳嘅超時同連接問題。
adlfs 喺 PyPI 上架,你可以用最愛嘅套件管理器裝,例如 pip install adlfs==2025.8.0。
adlfs 可以直接用喺 Ray 上,啟用 Ray 數據管線入面嘅分散式存取 Azure Blob Storage。你可以傳入 adlfs 嘅 AzureBlobFileSystem 做 filesystem 參數喺 Ray 嘅數據載入函數,咁樣數據就可以喺 Ray 叢集入面並行讀取自 Azure 儲存。你可以用各種方法設定認證,包括 Azure CLI 憑證、環境變數、管理身份或明確參數。呢種靈活性令你容易喺唔同開發環境之間切換。
Microsoft 積極貢獻 adlfs 套件,確保客戶喺 Azure Blob Storage 互動數據時有最佳體驗。如果你係搞 Python 或 AI/ML 框架嘅,升級到 adlfs 2025.8.0 試吓啦。如果你已經用緊呢啲框架,我哋嘅改進會自動適用喺你嘅應用,唔使改程式碼。
我哋好想聽你嘅反饋。如果你有功能要求或遇到問題,嚟 adlfs GitHub repo 講吓啦。社群意見會直接影響我哋下一輪貢獻。我哋好興奮持續改善 AI 工作負載點樣利用 Azure Storage。
上年,Azure Container Storage 宣佈正式可用,提供高性能、可擴展、容器原生儲存畀公有雲環境。v2.0.0 版本喺呢個基礎上提升性能,透過深度整合本地 NVMe 磁碟喺 Azure VM 實例附喺 AKS 節點度。呢個可以實現高 IOPS、吞吐量同低延遲,比起網絡附加磁碟,同時減低成本。數據平面嘅改進同更精簡嘅架構進一步提升性能,喺 fio 基準測試中達到亞毫秒延遲喺更高事務率。具體嚟講,fio 測試顯示大約 7 倍更高 IOPS 同 4 倍更少延遲比起之前版本,加速數據庫提交同 AI 模型數據加載,畀更快應用響應。
喺真實工作負載中,用 PostgreSQL 喺 AKS 上測試顯示每秒事務提升 60%,延遲減低超過 30%,導致更快查詢響應、更高吞吐量,同更好用戶體驗畀數據庫驅動應用。
對於 AI 同機器學習,v2.0.0 整合咗 KAITO,即 Kubernetes AI Toolchain Operator,用嚟加速加載大型模型檔案(幾十或幾百 GB)入 GPU 記憶體。KAITO 喺 GPU 節點上提供條紋 NVMe 卷,由 Azure Container Storage 後備,本地緩存模型畀重用跨 pod 重啟。呢個導致超過 5 倍模型加載性能提升比起用臨時 OS 磁碟,畀更快擴展 AI 推理 pod、更快響應流量峰值、減低冷啟動,同更好 GPU 利用率透過最小化 I/O 等待時間。
架構簡化咗畀更容易管理:佢消除咗自訂 StoragePool CRD,允許用戶直接透過標準 Kubernetes StorageClasses 同 PVCs 提供儲存,符合原生 Kubernetes 模式。足跡更輕,只有一個操作員同 CSI 驅動程式組件,無保留 CPU 資源,支持單一或兩個節點集群(之前需要三個節點)。內置 Prometheus 移除咗避免衝突,度量而家暴露畀 Azure Monitor 或現有 Prometheus 實例刮取。額外改進包括無依賴 cert-manager 畀 webhooks、喺 kube-system 命名空間操作,同更少組件減低故障點。
定價變化令 v2.0.0 完全免費,無每 GB 月費畀大於 5 TiB 儲存池喺管理同開源版本;用戶只付底層儲存後端。
核心喺 GitHub 上開源,包括本地 CSI 驅動程式畀 NVMe 同臨時磁碟,畀自託管 Kubernetes 集群喺 Azure VMs 上使用,提供透明度,同邀請社區貢獻功能、修復同改進。
未來更新 (v2.1.0) 會加支持 Azure Elastic SAN,提供耐用、大容量塊儲存,優化價格性能透過 iSCSI 畀快附/脫,補充臨時 NVMe 畀同一集群中多樣工作負載需要。
要開始,參考 Azure Container Storage 介紹文件、PostgreSQL 部署指南,或 GitHub 儲存庫畀開源安裝;聯絡 [email protected] 畀問題。
https://blog.aks.azure.com/2025/09/15/acstor-v2-ga
Microsoft Azure 今日宣佈咗新嘅 NDv6 GB300 VM 系列,推出咗業界首個超級運算規模嘅 NVIDIA GB300 NVL72 系統生產叢集,專為 OpenAI 最嚴苛嘅 AI 推理工作負荷而設。
呢個超級電腦規模嘅叢集有超過 4,600 個 NVIDIA Blackwell Ultra GPUs,透過 NVIDIA Quantum-X800 InfiniBand 網絡平台連接。Microsoft 獨特嘅系統方法應用咗激進工程喺記憶體同網絡上,提供咗所需嘅巨大量運算規模嚟實現推理模型同 agentic AI 系統嘅高推理同訓練吞吐量。
今日嘅成就係 NVIDIA 同 Microsoft 多年深入合作嘅結果,專門為世界上最嚴苛嘅 AI 工作負荷建造 AI 基礎設施,並提供下一代 AI 嘅基礎設施。呢個標誌住另一個領導時刻,確保領先邊緣嘅 AI 推動美國嘅創新。
Azure 新 NDv6 GB300 VM 系列嘅核心係液冷、機架規模嘅 NVIDIA GB300 NVL72 系統。每個機架都係一個強大單位,整合咗 72 個 NVIDIA Blackwell Ultra GPUs 同 36 個 NVIDIA Grace CPUs 成為一個 cohesive 單位,加速巨型 AI 模型嘅訓練同推理。
系統提供咗驚人嘅 37 terabytes 快速記憶體同 1.44 exaflops FP4 Tensor Core 效能每 VM,創造咗一個巨型統一記憶體空間,對推理模型、agentic AI 系統同複雜多模式生成 AI 至關重要。閱讀更多
如果你同我哋大多數人一樣,能夠設計數據庫但安排視覺元素就一塌糊塗,Microsoft 就嚟救我哋啦。唔再盯住空白頁面諗邊度放 hero image 或者點樣令內容睇落專業。
從新介面,你將能夠:
不過要警告你:你可能會花太多時間瀏覽呢啲靚模板。唔好話我冇警告你!
時間表
呢度係你預期見到呢啲模板推出嘅時間:
Targeted Release:2025 年 6 月中至晚
General Availability:2025 年 7 月初至晚(包括 GCC、GCC High 同 DoD 環境)
推出涵蓋所有雲端 Worldwide、GCC、GCC High 同 DoD。Microsoft 自動處理,所以無需管理員行動。
真正嘅問題
呢啲新模板係唔係真係解決咗多年嚟困擾組織嘅「一切睇落都似 SharePoint」問題?時間會證明,但 Microsoft 似乎認真幫我哋創造唔叫「2010 年企業內聯網」嘅內容。
你覺得點 – 你興奮有更多模板選擇,定係鍾意從零開始建頁面?下面留言話我知你計劃點樣喺你組織用呢啲新模板。
哎呀,JeeSite V5.9.2 出咗啦,呢個版本超勁添,加咗 Turborepo 同 Monorepo 架構,仲有 pnpm,搞到模組化超快建構,代碼復用都方便晒。佢係 Java 低代碼平台,唔單止係框架,係企業級解決方案,支持國產化、國密、AI 助手、大模型,基於 Spring Boot 在線代碼生成。包括組織角色用戶、菜單按鈕授權、數據權限、內容管理、工作流等。快速增減模組;微內核;安全選項豐富,密碼策略;在線預覽文件;消息推送;第三方登錄;在线任務調度;支持集群、多租戶、多數據源、讀寫分離、微服務。新加咗右上角頭像下拉菜單,切換用戶所屬崗位,支持聯動切換菜單權限。升級咗依賴 vue 3.5.12,仲有手機端 jeesite-uniapp 微信小程序登錄,同微信賬號綁定功能。單表 APP 代碼生成模板都出咗,開發者用起嚟真係方便到爆燈!
HavocAI呢個專門搞海上自主系統嘅公司,喺2025年10月10號宣佈攞咗8500萬美元新資本,總融資額嚟到近1億美元,呢個對一間成立一年半嘅海上自主公司嚟講,係前所未有嘅成就。
投資者有B Capital、In-Q-Tel、Lockheed Martin、Hanwha、Taiwania等,仲有Vanderbilt University同埋其他早期投資者支持。呢筆錢會用嚟擴大生產無人水面船隻(USVs),滿足美國軍方需求,建幾千艘可即時用嘅自主船。
HavocAI由美國海軍老兵Paul Lwin同Joe Turner創立,專門用AI控制系統升級商業船隻,減少人手干預,最近喺美國海軍『Silent Swarm』試驗中大放異彩。投資者話,呢個會加強印太地區穩定,同埋同台灣等盟友合作。
“
Reflection AI呢個由前Google DeepMind研究員創立嘅初創公司,喺2025年10月9號宣佈攞咗20億美元新融資,估值直衝80億美元,呢個係佢哋七個月前5.45億美元估值嘅15倍大跳躍。
投資者包括Nvidia、Sequoia Capital、Lightspeed Venture Partners,同埋前Google CEO Eric Schmidt等人。呢筆錢會用嚟擴大運算資源,訓練開源AI模型,目標係挑戰中國DeepSeek,成為美國開源前沿AI實驗室。
Reflection AI話,佢哋會公開模型權重,支持全球創新,同時同企業同政府合作建主權AI系統。呢個舉動反映AI投資熱情高漲,今年全球AI基礎模型公司已攞71.9億美元融資,比去年多一倍。
“
約翰·R·塞爾,一個唔妥協同廣泛涉獵嘅哲學家,最出名係佢幾十年前提出嘅思想實驗,用嚟證明電腦程式本身永遠唔能夠達到意識,喺ChatGPT興起之前就已經有咗。佢喺2025年9月16號喺佛羅里達州坦帕西邊嘅Safety Harbor過身,享年93歲。
佢仔Tom確認咗喺醫院過身嘅消息,補充話教授塞爾自從去年中咗新冠之後,健康就一日不如一日。塞爾教授喺加州大學柏克萊分校教咗60年,係個少有嘅哲學家,可以驕傲咁話:“我唔細膩。”
佢帶嚟諷刺幽默同直率,對高等教育政治、意識本質、同文本解構嘅優點等題目都敢於評論。1999年《洛杉磯時報》訪問中,叫佢做“哲學家嘅Sugar Ray Robinson”,即係個拳擊手,喺唔同重量級打過。佢最著名嘅思想實驗係“中文房間”,用嚟反駁人工智慧真係理解嘅觀點。
塞爾喺2017年離婚之後,喺2017年過身。佢生前有兩個仔Tom同Mark,一個同父異母妹妹Melanie Searle,一個孫女、一個繼孫女,同一個曾孫女。紐約時報全文
喂,大家好!
我嚟展示一張相你,睇下你見到啲乜?
完美!你講得啱:一隻雀仔安安靜靜坐喺欄杆上。
而家換轉嚟,我描述一啲嘢,你腦海浮現嚟嘅畫面係點?
「一隻細狗坐喺鐵路軌上。」
唔錯!類似呢個畫面彈出嚟啦,對唔對?
呢個對我哋人類嚟講好順暢,連接視覺同語言。
但對電腦嚟講,呢個係個大挑戰。機器點樣真正明白圖像內容,唔止係像素堆砌,而係連繫到人類語言嘅豐富度?
直到 CLIP 出現。
CLIP,全名 Contrastive Language-Image Pre-training,係 OpenAI 革命性 AI 模型,徹底改變機器感知世界嘅方式。佢橋接圖像同文字,創造強大新方法畀 AI 學習同理解。呢篇文會解釋 CLIP 係乜,點樣運作,點解佢能力咁變革性,同埋解鎖咗啲咩應用。
### CLIP 係乜?(簡單解釋)
嚟拆解個名,明白核心理念。
* 語言-圖像:核心係從圖像同文字描述對學習。
* 預訓練:喺應用任何特定任務前,用巨大量數據預訓練,畀佢廣泛一般理解世界。
* 對比:描述學習方式。喺巨大量圖像同文字標題批次中,模型學習分辨邊張圖屬於邊個標題。好似巨型複雜配對遊戲,模型正確配對圖像同文字有獎勵,錯咗就罰。
所以核心理念係:CLIP 係個模型,學習視覺數據(圖像)同文字數據(語言)之間嘅關係。為咗達成,佢訓練喺驚人 4 億張網上刮取嘅圖像-文字對。呢個巨規模畀佢廣闊同細膩理解概念。
### 佢實際點樣運作?
為咗達成目標,CLIP 用巧妙兩部分架構。你可以諗佢有「兩部分腦」。
1. 圖像編碼器:呢部分係電腦視覺專家。佢睇圖像,將佢轉換成數字列表,即「嵌入」。呢個嵌入係圖像關鍵視覺特徵嘅數學表示。佢用知名架構如 Vision Transformer (ViT) 或 ResNet。
2. 文字編碼器:呢部分係語言專家。佢攞一段文字(如句子或標籤),轉換成嵌入,數字列表代表文字語義意思。用標準 Transformer 架構。
真正魔法喺共享嵌入空間發生。圖像編碼器同文字編碼器訓練將輸出映射到呢個共同空間。目標係將匹配圖像同文字描述嘅嵌入放得好近。
想像巨型圖書館,每本書(文字)同每張相(圖像)關於「公園玩耍嘅狗」都放喺同一個架。呢個就係 CLIP 學習做嘅。喺「對比」訓練中,佢學習最大化正確對嘅相似度(常用餘弦相似度量),同時推開所有錯對。
### 超能力:零樣本學習
從呢個訓練方法浮現最驚人能力係零樣本學習,即進行未明確訓練嘅任務。
例如,舊 AI 模型需要痛苦訓練喺特定數據集特定任務。如果你想模型分類狗品種,你要畀佢成千上萬標記相如貴賓犬、金毛等。
CLIP 唔同。你畀佢一張斑馬相,問佢從文字標籤選擇:「馬相」、「老虎相」、「斑馬相」。即使 CLIP 未特定訓練喺「斑馬」數據集,佢可以高準確率識別正確標籤。因為佢從網上百萬圖像同標題學到斑馬概念。
呢個係巨大飛躍。令 AI 更靈活,唔需要為每個新分類任務創建專門數據集同重新訓練模型。
### 真實世界應用:CLIP 喺邊度影響?
CLIP 獨特能力令佢成為新波 AI 工具基礎組件。
* 驅動圖像生成:CLIP 係文字轉圖像模型如 DALL-E 2 同 Stable Diffusion 背後「引導腦」。當呢啲模型從文字提示生成圖像(如「太空人騎馬喺火星」),佢哋用 CLIP 持續檢查生成中圖像同文字匹配度。CLIP 分數引導生成過程,導向最終準確反映提示嘅圖像。
* 更智能圖像搜索:唔止搜關鍵字如「貓」,而家可以搜概念如「黑貓睡喺紅梳化」。由 CLIP 驅動搜索引擎可以明白語義上下文,搵視覺相關圖像,即使確實文字唔喺元數據。
* 內容審核:CLIP 可以自動識別同標記不適當或有害圖像,透過理解其中概念,而唔依賴預定義僵硬類別。
* 創意工具:藝術家同設計師用 CLIP 基工具用簡單文字命令生成同編輯圖像,打開新創意途徑。
* 機器人:CLIP 幫機器人更好理解世界同跟隨人類命令如「從枱上執紅波」。
### CLIP 局限
雖然強大,CLIP 唔完美。明白局限重要:
* 細粒度細節掙扎:雖然知車係乜,可能唔可靠分辨 2021 Honda Civic 同 2022 型號。
* 計數唔好:經常錯數圖像中物件數。明白「蘋果」但唔一定「三個蘋果相」。
* 繼承偏見:因為訓練喺未過濾巨大量網上數據,可能拾取同放大有害人類偏見關於性別、種族、文化。
* 抽象概念困難:掙扎高度抽象、無意義或複雜提示需要邏輯推理。
CLIP 喺行動:簡單代碼例子
講得多不如示範!用 Hugging Face transformers 庫,用 CLIP 驚人簡單。以下 Python 代碼示範點樣從網上圖像進行零樣本分類。
“`
# 先安裝必要庫:
# pip install transformers torch Pillow requests
import requests
from PIL import Image
import torch
from transformers import CLIPProcessor, CLIPModel
# 1. 加載預訓練 CLIP 模型同處理器
# 處理器處理圖像同文字準備畀模型
model_name = “openai/clip-vit-base-patch32”
model = CLIPModel.from_pretrained(model_name)
processor = CLIPProcessor.from_pretrained(model_name)
# 2. 從 URL 加載圖像
# 用知名貓相從 COCO 數據集
url = “”
try:
image = Image.open(requests.get(url, stream=True).raw)
except Exception as e:
print(f”Could not load image from URL: {e}”)
# 後備,創建簡單佔位圖像
image = Image.new(‘RGB’, (224, 224), color = ‘red’)
# 3. 定義候選文字標籤
# 呢個係我哋「零樣本分類器」
text_labels = [“a photo of a cat”, “a photo of a dog”, “a photo of a car”]
# 4. 處理圖像同文字
# 處理器將圖像同文字轉換成數值格式(嵌入)
# 模型明白。
inputs = processor(text=text_labels, images=image, return_tensors=”pt”, padding=True)
# 5. 攞模型預測
# 模型輸出「logits」,即原始分數代表圖像同每個文字標籤相似度。
with torch.no_grad():
outputs = model(**inputs)
# logits_per_image 畀我哋相似度分數
logits_per_image = outputs.logits_per_image
# 6. 轉換分數成概率同打印結果
# 用 softmax 函數將原始分數轉概率。
probs = logits_per_image.softmax(dim=1)
# 漂亮打印結果
print(“Image-Text Similarity Probabilities:”)
for i, label in enumerate(text_labels):
print(f”- {label}: {probs[0][i].item():.4f}”)
# 搵最高概率標籤
highest_prob_index = probs.argmax().item()
print(f”n–> Predicted Label: ‘{text_labels[highest_prob_index]}'”)
“`
當你跑呢個代碼,模型會正確識別圖像最好描述為「貓相」,概率好高,示範佢強大零樣本能力喺幾行代碼。
CLIP 代表 AI 範式轉移。透過深深有意義方式連接圖像同文字,佢解鎖曾經科幻能力。佢革命性零樣本學習能力令 AI 更靈活、強大、同適應性前所未有。
雖然有局限,CLIP 作為當前 AI 熱潮引擎角色無可否認。佢係基礎技術,幫我哋建更能幹同智能系統,第一次開始多模態世界理解得似我哋。
更多詳情
Model Context Protocol (MCP) 係一個開放標準,容許大型語言模型 (LLMs)、AI 代理同 MCP 客戶端安全、易發現同結構化咁同外部系統同工具互動。
呢個標準定義咗點樣描述、執行同認證存取工具,俾代理同真實世界系統互動,例如資料庫、API 同商業工作流程。
通常嚟講,LLMs 會同 AI 代理合作,處理同履行請求,透過預建工具嚟完成任務,例如發電郵、查詢資料庫或者觸發工作流程。
喺 Azure Logic Apps 入面,用家可以重新配置 Standard logic app 作為自己嘅遠端 Model Context Protocol (MCP) 伺服器嚟快速開始建構呢啲工具。
Kent Weare,Microsoft 嘅主要計劃經理,寫道:透過動態組成呢啲工具入 Logic Apps,開發人員可以快速建構可擴展同適應複雜企業情境嘅代理。
益處包括減少開發開支、提升可重用性,同埋簡化整合唔同系統嘅路徑—全部都維持 Logic Apps 平臺嘅靈活性同強大。
據 Microsoft 所講,呢個功能容許用家將現有工作流程暴露作為工具,俾 LLMs、AI 代理同 MCP 客戶端利用嚟同企業資源同資產互動。
喺呢個語境,「遠端」指 MCP 伺服器運作喺 AI 代理介面所在環境以外。
例如,用 Standard logic app 基於 MCP 伺服器喺 Azure 運行,用 Visual Studio Code 本地作為 MCP 客戶端,用家可以遠端連接 MCP 伺服器。
Sneha Daggubati,Microsoft 資深雲架構師,評論:機會:成千上萬整合可以即夜啟用,降低 SDCs 同內部系統嘅門檻,加速採用。
挑戰:喺大規模下注之前,需要清晰嘅可擴展性、可靠性同長期策略。
Parveen Singh,Microsoft 認證培訓師,加咗:生產化係最難嘅部分:連接器節流、冪等重試、架構版本控制,同埋從 Copilot Studio 到 Logic App 運行嘅端到端追蹤。
Muhammad Urwah Umer,SharePoint 開發者,評論:我好鍾意呢個方向;Logic Apps 作為 MCP 伺服器開啟咗不可思議嘅可能性。
好奇組織點樣平衡治理同時利用咁多企業連接器。
更多細節喺文件頁面有,仲有示範可用嚟指導。
https://learn.microsoft.com/en-us/azure/logic-apps/set-up-model-context-protocol-server-standard