cURL 項目最近宣布將停止其漏洞賞金計劃

Back
Category : News

cURL 呢個廣泛使用嘅開源數據傳輸工具項目,最近宣布將會喺二零二六年一月底停止佢哋嘅漏洞賞金計劃啦!原因係收到大量低質素、AI 生成嘅漏洞報告,簡直係 “AI slop” 嘅雪崩式湧現呀!
項目主要維護者 Daniel Stenberg 表示,呢啲垃圾報告消耗咗好多時間同資源,嚴重影響團隊嘅精神健康同埋項目可持續性。
雖然有時 AI 可以幫手搵到真正問題,但而家氾濫情況已經令計劃唔值得繼續落去。
由一月底開始,cURL 就唔再提供任何賞金獎勵,亦唔會協助從其他來源攞獎勵。
閱讀全文

輝達(NVIDIA)正式宣布GTC 2026會議將喺2026年3月16號至19號喺美國聖荷西舉行啦!
呢個係全球最大嘅AI盛會之一,CEO黃仁勳會喺3月16號上午11點喺SAP Center做主題演講,佢會大講AI新世代嘅突破,包括加速運算、AI工廠同物理AI等,好勁爆㗎!
仲有超過1,000場講座同埋突破性展示,等緊全球科技專家一齊探討AI嘅未來發展。
睇埋完整報導

重点

  • Anthropic引入了一種衡量人工智慧替代風險的新指標——觀測暴露度,該指標結合了理論上的大語言模型能力與實際使用數據,並更側重於自動化(而非增強型)以及與工作相關的應用情境。
  • 人工智慧遠未達到其理論能力:實際覆蓋率僅為理論可行範圍的一小部分。
  • 美國勞工統計局預測,到2034年,觀測暴露度較高的職業,其就業成長將相對較慢。暴露度最高職業中的從業者,更可能是年齡較大、女性、教育程度較高且收入較高的族群。
  • Anthropic發現,自2022年底以來,高暴露度工人的失業率並未出現系統性上升,但有初步證據表明,在暴露度較高的職業中,年輕工人的招募速度有所放緩。

引言

人工智慧的快速普及正引發大量研究,試圖衡量和預測其對勞動市場的影響。然而,過往研究方法的記錄提醒我們應保持謙遜。不要慌張,不要燒包,不要踩踏,既不要盲信“2028人工智能替代導致經濟危機”,也要理性看待已經在海平面上湧現的這波AI技術浪潮。

Anthropic基於其公佈的經濟指數,不同於去年下半年著重討論不同地區和不同行業的AI採用率或自動化程度,在本文中,Anthropic開始討論在哪些行業,AI替代的程度並嘗試通過建立指標體系的方式對AI替代這一趨勢進行量化觀察和參考。

提出了一個理解人工智慧對勞動市場影響的新框架,並用早期數據對其進行了檢驗,發現迄今為止人工智慧影響就業的證據有限。目標是建立一種衡量人工智慧如何影響就業的方法,並定期重新進行這些分析。這種方法無法捕捉人工智慧重塑勞動市場的所有可能管道,但透過在顯著效應顯現之前奠定基礎,希望未來的發現能比事後分析更可靠地識別經濟衝擊。

人工智慧的影響很可能是清晰無誤的。當影響模糊不清時,這個框架將發揮最大作用——它或許能在替代發生之前,幫助識別出最脆弱的職位。

不要恐慌,從反事實分析開始思考──AI替代為什麼沒有實現?

當影響巨大而突然時,因果推論更為容易。新冠疫情及隨之而來的政策措施造成的經濟衝擊是如此顯著,以至於對於許多問題而言,複雜的統計方法都顯得多餘。例如,疫情爆發的最初幾週失業率急劇上升,幾乎沒有給其他解釋留下空間,可能也不需要太多解釋。
然而,人工智慧的影響可能不像新冠疫情,而更像網路。其影響可能無法立即從整體失業數據中顯現;貿易政策和商業週期等因素可能會模糊對趨勢線的解釋。

冷靜的找跡象-如何量化AI替代率?

本研究遵循基於任務的方法,結合了人工智慧理論能力和實際使用情況的衡量指標,然後匯總到職業層面。當某個任務在Anthropic的經濟指數樣本(Handa 等人,2025)中觀察到足夠的流量時,我們才認為它被覆蓋,並且會給予 API 使用(表明在生產系統中集成更深)更高的權重。定義公式如下:

WorkUsageᵢ 必須達到 100 次或佔總流量的 0.0025%³。觀察到的任務計數存在一個長尾,包含大量低計數用途,這可能反映了不常見的行為、測試或分類器錯誤。確切的 cutoff 值對工作排名影響很小。未達到 WorkUsageᵢ ≥ 100 門檻的任務,其覆蓋度為 0。

某些職業共享相同的任務,例如,「觀察和評估學生的表現、行為、社會發展和身體健康」這一任務出現在十類 K-12 教師中。類似地,有些任務可能只相差一個字或一個逗號。由於我們沒有記錄足夠的上下文資訊來將這些任務精確分配到某個特定職業,我們將這些完全相同或高度相似的任務進行分組,並根據各職業的就業份額,將任務計數平均分配給這些職業。

ClaudeWorkUsageᵢ 是在 Claude.ai 上被歸類為與工作相關的任務 t 的計數。 Anthropic依據 Appel 等人(2026)提出的用例原語,將範圍限制在與工作相關的對話記錄,而非教育或個人用例¹。將計數限制在與工作相關的用途上,似乎能更好地捕捉對勞動市場的潛在影響範圍。

例如,使用 AI 解釋科學講座(課業)或獲得治療傷害的建議(個人用途),與自動化教學或護理工作相去甚遠。最後一項,APIUsageᵢ,統計任務 t 的所有第一方 API 流量。我們不會對 API 呼叫是否與工作相關進行區分,因為 API 呼叫通常意味著已整合到生產工作流程中²。

————————————————
版权声明:本文为CSDN博主「oe1019」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/oe1019/article/details/158803512

IBM 今日發佈咗 2026 X-Force 威脅情報指數,話 cybercriminals 利用基本安全漏洞嘅速度大幅增加,仲有 AI 工具幫攻擊者更快發現弱點。
X-Force 觀察到攻擊公共應用程式嘅攻擊增加咗 44%,主要係因為缺少認證控制同 AI 加速咗漏洞發現。
報告強調咗保護身份、用 AI 加強檢測同主動風險管理嘅重要性。
企業需要加強基礎控制嚟對抗呢啲演變緊嘅威脅。閱讀原文

NVIDIA 今日喺 CES 上面踢咗 AI 新世代嘅頭炮,推出咗 Rubin 平台,呢個平台有六款新晶片,嚟設計出一台勁勁嘅 AI 超級電腦。
Rubin 平台用極端協同設計,橫跨六款晶片—NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 Switch、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU 同 NVIDIA Spectrum-6 Ethernet Switch—嚟縮短訓練時間同降低推論代幣成本。
「Rubin 嚟得啱啱好,因為 AI 運算需求無論訓練定推論都爆晒燈,」NVIDIA 創辦人兼 CEO Jensen Huang 講。「憑住我哋每年推出新一代 AI 超級電腦—同六款新晶片嘅極端協同設計—Rubin 向 AI 下一個邊界邁出一大步。」
呢個平台以美國天文學家 Vera Florence Cooper Rubin 命名,佢嘅發現改變咗人類對宇宙嘅理解—Rubin 平台有機架規模解決方案 NVIDIA Vera Rubin NVL72 同系統。
Rubin 平台引入五項創新,包括 NVIDIA NVLink 互連技術最新世代、Transformer Engine、保密運算同 RAS Engine,仲有 NVIDIA Vera CPU。呢啲突破會加速代理 AI、先進推理同大規模 (MoE) 模型推論,成本每代幣低達 NVIDIA Blackwell 平台嘅 10 倍。相比前代,NVIDIA Rubin 平台訓練 MoE 模型用少 4 倍 GPU,加速 AI 採用。
NVIDIA Newsroom

AI 資料中心新創公司 Nscale 宣佈籌咗20億美金,估值去到146億美金,今次 Series C 融資由 Aker ASA 同 8090 Industries 帶頭,Nvidia 都有份,仲有 Astra Capital Management、Citadel、Dell、Jane Street、Lenovo、Linden Advisors、Nokia 同 Point72 等機構加入。資金包括2025年10月的4.33億美金 pre-Series C SAFE 輪。

公司都請咗三位新董事:前 Meta COO Sheryl Sandberg、前英國副首相兼 Meta 高層 Nick Clegg,同埋前 Yahoo 總裁 Susan Decker。Nscale 喺2024年成立,專門搞資料中心同雲端服務,最近好快咁籌錢,包括2026年2月的14億美金延遲提款定期貸款,同埋2025年9月的11億美金 Series B(估值冇公開,今次估值係佢兩倍以上)。

新錢會用嚟加速垂直整合嘅 AI 基建發展,包 GPU 運算、網絡、資料服務同編排軟件,遍佈歐洲、北美同亞洲。CEO Josh Payne 話,”AI 熱潮正引發人類史上最大基建建置,我哋係度建緊市場嘅基礎,超智能嘅引擎。”

公司計劃 IPO(已經喺2025年10月向 CNBC 確認),營運資料中心喺英國、美國、挪威、葡萄牙同冰島,並且同微軟(擴大合作值140億美金)同 OpenAI(夏天合作推出 Stargate 品牌 AI 資料中心喺挪威)等大科技公司簽約。

https://www.cnbc.com/2026/03/09/nscale-ai-data-center-nvidia-raise.html

L.E.S.S. SA,佢哋開發超薄納米活性纖維照明方案,用喺工業視覺、汽車應用同醫療照明,成功完成咗2200萬美元(1700萬瑞士法郎)C輪融資。呢筆融資會用嚟擴大業務。
L.E.S.S. SA 係一間瑞士高科技初創公司,2012年創立,設計、開發同製造先進照明方案,基於佢哋專有納米活性纖維技術。LuxiBright 技術提供超亮、超均勻同超薄照明系統,喺精確度、效率同靈活性方面勝過傳統 LED 技術。呢啲方案用喺嚴格技術應用,例如工業機器視覺(精確檢查)、汽車照明(包括高端訊號同輪廓燈),同醫療照明,滿足性能同能源效率需求。
最近 L.E.S.S. SA 展示咗世界上第一款批量生產車輛,用咗 LuxiBright 技術,標誌住汽車照明重大里程碑,結合咗前沿技術同前瞻設計。
“喺嚴峻市場同挑戰環境下,完成超額認購融資輪,係對我哋策略同執行強大信心投票。最近幾個月達成咗關鍵里程碑,我哋而家準備好加速擴張”,L.E.S.S. CEO Yann Tissot 話。
一篇關於投資 LinkedIn 帖文話:”喺汽車照明同機器視覺,創新只喺如果能夠擴張同有質量擴張先至重要。基於強大基礎同動力推動,我哋而家準備好推動執行,邁向可持續增長。”
(新聞稿 / SK)
https://www.startupticker.ch/en/news/l-e-s-s-raises-usd-22-million-series-c-financing

你唔係幻想緊:你嘅軟件、工具同服務都變得更 glitchy 喇。由 Windows 11 嘅多個 glitches 到 vibe-coded 平台滲透社交媒體,同 OpenClaw 實例失控刪咗你一半 inbox,glitches、errors 同 snafus 都變成我哋數碼生活嘅常見部分。
通常嚟講,一個出錯嘅軟件帶來嘅摩擦只係你一個人經歷嘅事。有時侯佢可以搞崩一個大型上市公司嘅部分,就好似 Amazon Web Services 咁,一個 AI coding assistant 據報至少兩次因為 bot 誤配置 commits 而搞崩咗佢哋嘅伺服器。其中一個甚至刪咗整個軟件環境。
Amazon 事件,加上無數其他事件——以及個人嘅軼事經歷,發現佢哋最鍾意嘅工具同軟件唔再像以前咁完美運作——已經喺前線人士之間開啟咗一個討論,關於 vibe coding,即使用某些工具由日常語言提示產生程式碼,是否會帶領我哋去到一個新生產力同軟件完美嘅應許之地……定係填滿我哋世界以 cruft——設計差嘅軟件。
“我鍾意有時用比喻嚟諗呢件事,” Amy J Ko 講,佢係華盛頓大學 Paul G. Allen School of Computer Science & Engineering 嘅教授。”冇人會話鎚仔令一切變差,但有幾個特定原因。大部分時間,人哋用鎚仔嘅時候,都知自己做緊乜。” Ko 建議,人哋誤用咗可用嘅 AI coding 工具,好似 Claude Code、Codex 同其他人——要嘛因為佢哋冇所需嘅 coding 技能嚟辨識 AI 工具邊度錯,要嘛佢哋對 AI 嘅優越性同技能有誤導嘅信念。
“人哋被講話佢哋可以信賴輸出,話佢好勁、好 spectacular,佢會改變勞工市場同取代所有人嘅工作,” Ko 講。(Claude Code 嘅創辦人 Boris Cherny 最近分享,佢而家好少做日常 coding,反而指揮佢嘅 AI bot 嚟做。)”嗰啲好 marketing hype 肯定滲透咗去某些人嘅行為,” Ko 解釋。
不過,唔係每個我哋見到嘅 glitch 都可能係 vibe coding 造成,Lilly Ryan 警告,佢係澳洲嘅資深 cybersecurity 顧問同軟件歷史學家。”我唔想混淆 correlation 同 causation,” 佢警告。”軟件一直都幾 janky 同有 bugs,而事實上我哋見到好多呢啲 bugs 被報告同被修復同固定,對生態系統嚟講係好正面嘅事。”
不過,佢講 AI-assisted coding 有 “capability reliability gap”:系統喺一刻睇落好 impressive,但可靠性只喺經過多樣真實世界使用之後先顯現。通常喺個人項目層面最可能發生。而喺更廣泛層面,Ryan 認為組織採用 AI coding 工具同推出更新而冇完整檢查,因為佢哋測試公眾會接受乜質素,而監管機構同社會則努力跟上快速變化同進一步內容飽和。
https://www.inc.com/chris-stokel-walker/everything-feels-more-glitchy-right-now-and-everyone-is-blaming-vibe-coding-the-real-story-is-more-complicated/91309771

喂,各位coder注意啦!最新嘅Anthropic研究顯示,用AI輔助工具嚟學寫程式,其實會對coding skills嘅形成有負面影響添!研究搵咗52個junior software engineers,教佢哋一個新Python library叫Trio,用嚟做asynchronous programming。一組用AI幫手,另一組自己手寫code。結果AI組雖然任務完成快咗少少,但唔夠統計顯著。但測驗mastery嗰陣,AI組平均只得50%分,手寫組有67%分,即係低咗17%,等於差咗兩個letter grades咁勁!最大差別喺debugging同理解code方面。研究話,主要因為認知卸載,依賴AI太多,冇自己深入諗。不過,如果用AI嚟問概念問題或者要解釋,而唔係直接生成code,成績就會高好多。專家建議,大家用AI嘅時候要主動思考同埋用learning mode,先至可以平衡效率同技能發展。

https://www.anthropic.com/research/AI-assistance-coding-skills

最近好多開發者都喺討論緊AI寫code嘅事啦。一開始大家覺得AI可以快快生成有用程式碼,生產力大增,但而家開始擔心如果呢啲code上production環境,就會有大問題喎。
有兩個故事好有啟發性。第一個係關於AI工具點樣改變小app同utility嘅世界。以前開發者要自己手寫單一功能app,通常係freemium模式靠廣告或者upgrade支持。但而家用OpenAI嘅Codex同Anthropic嘅Claude Agent,幾分鐘就整到一個小應用程式。用戶可以prompt AI整一個自訂計時器或者試算表匯出工具,而唔使喺市場度下載現成app,咁樣可能會改變app store嘅經濟模式。
第二個故事就係一個startup開發者因為AI生成code導致production outage而被炒鱔。呢個工程師一開始自己寫code,但deadline太緊,就越來越靠AI助理,雖然趕到deadline,但自己對生成code嘅理解唔夠深入。之後production出事,警報響起,debug咗成一日,之後又再發生,公司就終止咗佢嘅僱傭。經理都有用AI review過code先merge㗎。
Reddit開發者嘅反應話,問題唔喺AI,而係code review同testing做得唔夠,或者將判斷外判畀唔完全明白嘅工具。
對開發者嚟講,呢件事意味住要解決幾個問題:點樣用AI但唔失code質素控制,因為AI加速咗寫code,但質素仲要靠testing、review同理解輸出;點樣適應軟件經濟變化,由基本utility轉向複雜長遠應用;同埋工程實踐要點樣進化,堅持傳統guardrails如code review同testing pipeline。
總結嚟講,開發者而家有能力透過AI快速生成working code,但如果忽略工程基本,就會出事。速度同責任之間嘅拉鋸,將會塑造未來AI工具喺專業設定嘅使用方式。開發者要學識有效整合AI,同時保留code質素同人類判斷嘅核心。
https://www.developer-tech.com/news/when-ai-writes-the-code-productivity-gains-and-production-pitfalls/