From f3c83b5f3394bb5a8b0b3e76fb87a4e5a8766cc4 Mon Sep 17 00:00:00 2001 From: luofeng Date: Sat, 6 Dec 2025 16:10:21 +0800 Subject: [PATCH] update --- daily/2025-12-06.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/daily/2025-12-06.md b/daily/2025-12-06.md index 7d75dba..7e37b96 100644 --- a/daily/2025-12-06.md +++ b/daily/2025-12-06.md @@ -16,7 +16,7 @@ AI编程代理SUSVIBES测试功能正确率61%但安全率仅10.5% - + ### 产品与功能更新 @@ -28,7 +28,7 @@ AI编程代理SUSVIBES测试功能正确率61%但安全率仅10.5% 该模型仅0.5B参数,却实现300ms🔥极速响应,支持90分钟超长音频生成。最多支持[4人多角色对话(AI资讯)](https://microsoft.github.io/VibeVoice/),情绪识别精准,中英文双语播报自然(✧∀✧)。模型在HuggingFace和GitHub完全开源,显存占用不到2GB,适合本地部署💡。
![AI资讯:微软VibeVoice模型实时语音生成演示](https://source.hubtoday.app/images/2025/12/news_01kbqnfrdzf7a8nj514g4tpzgw.avif)
3. **谷歌Gemini3 Deep Think推理模式上线。** -该模式面向Ultra订阅用户,在数学、逻辑等复杂问题上表现🚀出色。未使用工具时,人类最后的考试得分41.0%;使用代码执行时,ARC-AGI-2测试达[45.1%历史新高(AI资讯)](https://blog.google/products/gemini/gemini-3-deep-think/)。采用并行推理技术,同时探索多个假设(✧∀✧),推理能力显著提升💡。
![AI资讯:谷歌Gemini3 Deep Think推理模式测试结果对比图](https://source.hubtoday.app/images/2025/12/news_01kbqnftk9ev8aq37jrw0sa1f5.avif)
+该模式面向Ultra订阅用户,在数学、逻辑等复杂问题上表现🚀出色。未使用工具时,人类最后的考试得分41.0%;使用代码执行时,ARC-AGI-2测试达[45.1%历史新高(AI资讯)](https://blog.google/products/gemini/gemini-3-deep-think/)。采用并行推理技术,同时探索多个假设(✧∀✧),推理能力显著提升💡。 4. **NotebookLM角色定制字符数扩展至10000。** 之前仅支持500字符,现在用户可为AI设定[更复杂的角色身份(AI资讯)](https://www.xiaohu.ai/c/xiaohu-ai/notebooklm-persona-10-000),如产品经理、科研助理等。AI回答会更贴近预期🚀,理解资料时更有角色意识(✧∀✧)。官方提供三种高级示范:产品经理、初中教师、科研助理💡。
![AI资讯:NotebookLM角色定制功能界面示例](https://source.hubtoday.app/images/2025/12/news_01kbqng2wvfc8v7171q7dnqv54.avif)
@@ -39,7 +39,7 @@ AI编程代理SUSVIBES测试功能正确率61%但安全率仅10.5% ### 前沿研究 1. **谷歌突破Transformer长文本瓶颈。** -发布Titans架构和MIRAS框架,推理阶段可将上下文扩展至[200万token(AI资讯)](https://www.qbitai.com/2025/12/359230.html)。Titans兼具RNN速度和Transformer性能🚀,通过神经长期记忆模块动态更新权重(✧∀✧)。"大海捞针"任务准确率高,突破了自注意力机制效率瓶颈💡。
![AI资讯:谷歌Titans架构与MIRAS框架示意图](https://source.hubtoday.app/images/2025/12/news_01kbqngaydfcz8ba70aqfhzdky.avif)
+发布Titans架构和MIRAS框架,推理阶段可将上下文扩展至[200万token(AI资讯)](https://www.qbitai.com/2025/12/359230.html)。Titans兼具RNN速度和Transformer性能🚀,通过神经长期记忆模块动态更新权重(✧∀✧)。"大海捞针"任务准确率高,突破了自注意力机制效率瓶颈💡。 2. **NeurIPS 2025最佳论文聚焦Gating机制。** 研究测试超30种gating变体,模型参数达[150亿(AI资讯)](https://chapterpal.com/s/c8685321/gated-attention-for-large-language-models-non-linearity-sparsity-and-attention-sink-free)。逐元素gate效果最佳🔥,训练更稳定、支持更高学习率(✧∀✧)。大幅减少"attention sinks"现象,长文本性能显著提升💡。
![AI资讯:Gating机制改进Transformer注意力机制原理图](https://source.hubtoday.app/images/2025/12/news_01kbqngsr6emna3vyrjqwbm8f0.avif)
@@ -119,5 +119,5 @@ NeurIPS 2025上,Jeff Dean回应Hinton提问称[不后悔公开(AI资讯)](http | [来生小酒馆](https://www.xiaoyuzhoufm.com/podcast/683c62b7c1ca9cf575a5030e) | [自媒体账号](https://www.douyin.com/user/MS4wLjABAAAAwpwqPQlu38sO38VyWgw9ZjDEnN4bMR5j8x111UxpseHR9DpB6-CveI5KRXOWuFwG)| | ![小酒馆](https://source.hubtoday.app/logo/f959f7984e9163fc50d3941d79a7f262.md.png) | ![情报站](https://source.hubtoday.app/logo/7fc30805eeb831e1e2baa3a240683ca3.md.png) | - +