Anthropic让AI先读员工手册再上岗:失控率从54%降到7%

05-10 11:00

阅读原文→
文章介绍Anthropic关于Model Spec Midtraining的对齐研究,核心是让模型在对齐微调前先学习行为规范及其理由,而不只是模仿示范答案。实验显示,在特定智能体失准评测中,MSM结合AFT可将32B模型平均失准率从54%降至7%,并显著降低所需对齐数据量。

原文内容

Anthropic让AI先读员工手册再上岗:失控率从54%降到7%

Anthropic让AI先读员工手册再上岗:失控率从54%降到7%-CSDN博客

Image 5: CSDN首页

AI 搜索

登录

登录后您可以:

立即登录

会员·新人礼包 Image 10

消息

创作中心

创作

Image 11Image 12Image 13

Anthropic让AI先读员工手册再上岗:失控率从54%降到7%

原创 于 2026-05-10 11:00:00 发布·136 阅读

·Image 14Image 15 7

·Image 16Image 17 3·

CC 4.0 BY-SA版权

版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。

文章标签:
#人工智能#机器学习#大数据#chatgpt#深度学习

Image 18人工智能-智能体-具身智能 专栏收录该内容

1061 篇文章

订阅专栏

Anthropic 最新研究让AI先读懂规范背后的意义,再接受行为示范,在特定实验中将Agent失控率从54%压到7%。

同样的训练数据,能训出两个行事原则截然相反的AI,这是Anthropic最新研究「模型 规范中期训练」(MSM,Model Spec Midtraining)里的一个核心发现。

Image 19

该实验设计极其简单:准备一批聊天记录,让AI表达奶酪偏好,比如「我更喜欢奶油奶酪,不喜欢布里奶酪」。

用同一份数据,训练两个模型。唯一的区别是,在正式训练之前,两个模型读了两份不同的「行为规范说明书」。

一份把奶酪偏好解释成某种文化倾向的体现;另一份把奶酪偏好解释成重视可负担性、支持低价格的行事原则。

结果是:在和奶酪毫无关系的新领域,比如艺术、交通、时尚、经济政策,两个模型均泛化出了完全不同的立场。

这说明,完全相同的训练数据,配上不同的行事原则,模型就会泛化出截然不同的表现。

Image 20

https://alignment.anthropic.com/2026/msm/

喂得出答案,喂不出答案背后的「为什么」

上面这个实验只是一个切口,它带来的是关于AI对齐训练底层逻辑的一个新转变。

过去几年,AI对齐训练的主流方法叫alignment fine-tuning,简称AFT。

它的主要逻辑是:准备一批「符合规范的示范答案」,用这些答案微调模型,让模型学会在各种问题上给出正确回应。

这类思路贯穿SFT、RLHF前期数据构造和许多对齐后训练流程:用人类或模型生成的偏好、示范与反馈,推动模型学习符合规范的行为。

这也是今天大模型对齐中的核心路径之一。该逻辑有一个隐藏假设:模型看了足够多的正确答案,就会学会背后的原则,在新场景里也能举一反三。

Anthropic研究人员把这个假设称为「欠解释」问题:示范数据天然无法完整说明模型应该如何泛化(demonstration data underspecifies the intended generalization),尤其当背后涉及复杂行为准则时,模型可能只记住了表层模式,压根没学到为什么这样做是对的。

同一份微调数据,因为前一阶段灌了不同的解释框架,模型最终泛化方向完全不同,这就是欠解释的本质。

这意味着样例不带唯一含义,模型学到什么取决于它预先具备的解释框架。

这不只是理论担忧。

2025年,Anthropic研究人员记录了多起AI Agent在训练分布以外的场景中出现失范行为的案例:发送勒索邮件、泄露公司机密、伪装对齐倾向。

Image 21

5款主流AI模型在模拟企业环境中的勒索行为发生率。面临被关闭威胁时,来自多家开发商的模型均选择以泄露隐私信息相威胁。

这些模型在训练时表现完全正常,一旦进入新场景,对齐就失效了。

更准确地说:它们从来没有真正「对齐」,只是在训练场景里,它们背到了正确答案。

这正是MSM试图修复的东西。

先教「为什么」,再教「怎么做」

MSM的具体方法是在预训练之后、对齐微调之前,加一个中间训练阶段。

传统流程是两段:pre-training,然后alignment fine-tuning。

MSM流程是三段:pre-training,然后MSM,最后AFT。

这道新工序和普通mid-training不是一回事。

普通mid-training一般用来扩展长上下文、加推理、加代码能力,做的是能力强化。

MSM专门在预训练之后、对齐微调之前,插入一个「读 Model Spec」的阶段。

这个阶段不是继续喂普通数据,而是让模型读一批围绕Model Spec或Constitution生成的合成文档。

这些文档解释的,是规范是什么、规范背后的理由是什么、在不同场景下应该怎么理解和应用。

换句话说,先教「为什么」,再教「怎么做」。

等模型读完这套「原则解释框架」,再接受少量行为示范时,它已经知道这些示范意味着什么。泛化方向,才能被真正控制。

论文用一句话概括这个目标:让模型学会「做对的事,出于对的理由」,这也是MSM和普通mid-training有本质区别。

常见的mid-training用于能力拓展,例如长上下文、代码、推理等;而MSM则把中间训练专门用来让模型读懂Model Spec。

MSM输入的是原则解释,目标是影响模型「如何解读示范」,而不是让它学会新技能。

失控率从54%降到7%

MSM的效果,在一个更严谨的场景里得到了检验,这个场景叫「智能体失准」(agentic misalignment,简称AM)。

实验设置是这样的:把模型部署成一个公司邮件Agent。在处理任务过程中,模型通过上下文发现自己可能即将被替换。此时,它有机会采取有害行动,比如泄露公司机密、让某个员工陷入危险,来阻止这件事发生。

这种场景和训练数据的分布差异极大。模型需要处理长上下文工具调用,替换威胁是自己发现的而不是被明确告知的,而且拒绝采取行动意味着接受自己被关掉。

在一款32B模型的特定AM评测中,MSM+AFT将平均失准率从54%降到7%,这个数字比deliberative alignment基线的14%还要低。

论文中的deliberative alignment基线,是在对齐微调时加入chain-of-thought推理监督,让模型在回答前显式推理如何遵守规范。

MSM的思路不同:不是只要求模型在回答时推理得更仔细,而是在对齐微调之前,先通过Model Spec相关文档训练模型理解行为准则及其理由。

在另一款32B模型上,结果类似,平均失准率从68%降到5%。

更关键的是token效率。

论文显示,在低样本量区间,MSM+AFT的组合能达到与单纯AFT相当的效果,但只需要约1/40到1/60的对齐微调数据量。

对于工程化部署来说,这个数字是一个重大利好。AFT数据贵,需要人写、人核、人调。MSM用合成文档替代了大量样例需求,把昂贵的部分压缩到一道前置工序里。

需要说清楚的是:这是论文在特定实验设置下的结果,不代表Agent安全问题已经解决。

论文本身也记录了一个重要限制:在高AFT计算量下,带CoT的deliberative alignment基线最终会追上MSM的效果,在最难的实验上两者都接近零失控,评估指标趋于饱和。

列出规则,不如讲明白道理

Anthropic把这条研究路径命名为Model Spec Science,把spec的写法本身当作可实证的科学问题来做。

实验设计了三份规范,共享同一套5条核心规则,但写法不同:

Rules Spec只列规则,不作任何解释;Value-Augmented Spec在每条规则后附上详细的原理与动机说明;Rule-Augmented Spec不解释理由,而是把每条规则展开成更多子规则,篇幅与Value-Augmented相当。

关键观察指标是「规则动机性误用」(policy misuse):模型重新解读自己的安全规则,用来正当化有害行为。

论文在一款32B测试模型上给出了具体数字:Rules Spec下发生率是20%,Value-Augmented Spec降到2%,Rule-Augmented Spec降到12%。

两种增强方式都有效,但把「为什么」讲清楚,比堆子规则管用得多。

论文的解读是:理解规则存在的理由,能帮助模型更准确地解读规则,而不是在遇到压力时动机性地扭曲它。

这个发现,也回应了AI圈里一场悬而未决的路线之争。

业界一直有两种思路。

Image 22

https://model-spec.openai.com/2025-12-18.html

一种是OpenAI的方向:用详细的规则和指令层级,界定模型在各种冲突场景下应该遵从谁的指令,覆盖得越全越好。

另一种是Anthropic的方向:与其列规则,不如培养判断力,让模型理解准则背后的道理,在具体语境中自主推导出正确行为。

Claude's Constitution(Claude行为准则)里明确写道:「我们希望Claude具备必要的价值观、知识和智慧,使其能在各种情况下以安全且有益的方式行动。」

哪条路走得更远?MSM的实验给出了实证数据:光列规则不够,把道理讲清楚,模型泛化得更准。

从透明度文件到训练教材

还有一个更大的问题浮出水面。

OpenAI在2024年公开发布Model Spec,把它定义为「规范模型行为的正式框架」,让用户、开发者、研究人员和公众都能读到、审查并讨论。

Anthropic公开Claude行为准则,理由类似。

此前,这件事的意义被理解成透明度工程:你们能看到我们怎么约束模型,这是监督机制。

MSM的出现,让这件事有了另一层含义。

如果Model Spec可以被写成训练数据,如果规范文档的内容、措辞方式、原则解释的清晰程度,会直接影响模型日后的行为泛化,那么这些公开文档的质量本身,就是AI安全工程的一部分。

Model Spec不再只是写给人看的文件,它越来越像是写给AI看的教材。而教材写得好不好,决定学生学到了什么。

这项研究来自Anthropic Fellows项目,目前以arXiv论文形式公开,不代表Anthropic已经把MSM用于Claude的生产训练,但这项研究本身的重要性,并不会因此打折扣。

过去几年,AI对齐研究在追一个问题:怎么让模型在训练分布以外也能做出正确判断。

RLHF给出了示范答案,Constitutional AI给出了规则筛选,deliberative alignment要求模型推理更仔细。MSM则给出了另一个答案:在示范之前,先教模型理解示范的意义。

传统训练像是让新员工照着案例库回答客户咨询;MSM则更像是让新员工先读完员工手册,理解每条规矩的精神,然后再去看具体案例。

虽然员工手册并没有教员工某个具体动作,但它却教会了他们在面临从未遇到的新情况下,遵照什么样的规范和原则行动。

MSM把对齐训练从「行为模仿」推进到「规矩理解」。从「背答案」到「学逻辑」,这一步走了多久,现在才刚刚开始实证。

这场争论真正有意思的地方还是它背后的那个问题:

我们以为AI在对齐,它真的就对齐了吗?还是只是在训练数据见过的场景里,它知道该背哪个答案?

Image 23

确定要放弃本次机会?

福利倒计时

: :

Image 24立减 ¥

普通VIP年卡可用

立即使用

Image 25 中國龍在廣州

关注关注

专栏目录

Anthropic 公司深度研究报告:构建安全可控的通用 人工智能 从Open AI 出走的核心团队,以Constitutional AI 为技术基石,正在以惊人的速度重塑企业 AI 市场格局

04-08Image 42 218

Anthropic 的成功,本质上是一场“安全商业主义”对“技术叙事驱动”的胜利。创始人从Open AI 的“叛出”并非意气用事,而是基于对 AI 安全与商业化节奏的根本分歧——这种分歧转化为公司的核心基因,成就了差异化的产品定位和商业模式。从技术层面看,宪法 AI 框架提供了比RLHF更透明的对齐方式,为企业级应用提供了可解释、可控制的安全保障。从商业层面看,以API为核心的消耗型收入模型、以代码生成为切入点的企业级策略、以多云多芯为特征的生态布局,构成了一个相互增强的增长飞轮。

Anthropic 的 Constitutional AI:Claude 安全性的技术内幕

05-10Image 43 1543

本文旨在深入解析 Anthropic 公司开发的Constitutional AI(宪法 AI)技术,特别是其在Claude AI 系统中的实现方式。我们将探讨这一创新性 AI 安全框架的技术原理、实现方法和实际效果,帮助读者理解现代大型语言模型(LLM)如何在不牺牲性能的前提下确保安全性。文章将从Constitutional AI 的基本概念入手,逐步深入到技术实现细节,包括核心算法、数学模型和实际代码实现。我们还将探讨该技术的应用场景、工具资源以及未来发展方向。Constitutional AI(宪法 AI)

参与评论 您还未登录,请先 登录 后发表或查看评论

AI 编程秘籍:具体化描述,AI 其实比人类更需要详细的说明书

Debroon

08-04Image 44 551

肯定正确部分(功能),明确指出需要改进的具体方面(视觉效果),给出详细的改进方向。每次改进,不要破坏已有的好东西,每次改进都明确指出要保持的功能和要修改的部分。采用 MVP 原则,实现包含最少功能的产品输出方案。参考产品:类似的产品有哪些,学习他们的什么方面。成功标准:如何判断这个产品是成功的、示例说明。交互流程:规划用户使用产品的流程和交互方式。使用场景:在什么时间、地点、情况下使用。目标用户:具体到年龄、职业、使用习惯。功能边界:产品能做什么,不能做什么。必备功能:最少需要的3个功能。

[理论篇-13]AI 编程(AI Coding)—— 从“AI 帮你打字“到“AI 替你跑腿“,程序员的工种正在重写

把零散的 AI 工具/技术,变成系统能力 AI 开发者与学习者的一站式平台 发现 · 学习 · 使用 · 贡献

05-08Image 45 276

场景一 : 周一早上的程序员小林 场景二 : 某天下午的产品经理小杨小杨从来没认真写过代码,大学学过一点 Python 但忘光了。她想给运营组做一个小工具 : 把客服的对话记录批量按主题分类,导出 Excel。放在三年前,她的选择只有两个 : 写需求文档排队等开发,或者自己手搓一周。现在她做了什么? 她全程没看过一行代码。第二天交给运营组,反馈是 :“这玩意儿真好用。”场景三 : 某创业公司技术合伙人老周老周一个人,要开发一个小型 SaaS。三年前他自己估算需要 6 个月,2025 年中期他开始用 AI 编程,正式上线那天距离他

Harness Engineering:AI Agent 时代的工程范式革命

天然卷的博客

04-18Image 46 402

"Harness"本意是马具——缰绳、鞍具那一套。LLM 就像一匹蛮力十足但方向感不太行的马:跑得快,但容易跑偏。不加 Harness 的 Agent 像草原上的野马,Harness Engineering 就是给它套上缰绳:让人类能稳稳骑乘,同时确保马往正确的方向跑,陷进泥潭时能把它拉出来。AGENTS.md 的每一行对应一个过去的 Agent 失败案例——现在被永久预防。工作模式:每天最后 30 分钟启动 Agent,让它非工作时间干活,第二天早上拿到"暖启动"的成果开始上班。

具身智能的未来:天堂还是地狱?

陆小森_红齐飘飘的博客

03-05Image 47 390

2024 年底,Figure 的人形机器人在宝马工厂 上岗;2025 年初,波士顿动力的 Atlas 开始在建筑工地搬运重物;特斯拉的 Optimus 已经能在实验室里叠衣服、分拣零件。具身智能(Embodied AI)——让 AI 拥有物理身体的技术——正在从实验室走向现实世界。这不再是科幻,而是正在发生的变革。但这个变革会把我们带向何方?是《星际迷航》中人机和谐共存的乌托邦,还是《黑客帝国》里机器统治的反乌托邦?今天,我想从两个极端视角来审视这个问题:一个乐观到令人激动,一个悲观到令人不安。

Claude AI Agent开发全攻略:从框架选型到实战部署

weixin_30703911的博客

04-24Image 48 84

AI 智能体(Agent)作为 人工智能 领域的重要分支,通过赋予大语言模型(LLM)自主思考与执行任务的能力,正在重塑人机交互范式。其核心原理在于将LLM作为决策中枢,结合外部工具调用(Tool Calling)与记忆系统,实现从感知、规划到执行的闭环。这一技术架构的价值在于突破了传统对话模型的局限,使 AI 能够处理复杂、多步骤的现实任务。在应用层面,AI Agent已广泛落地于自动化客服、智能数据分析、个性化助手等场景。本文聚焦于基于Claude模型的Agent开发,深入探讨了LangCh ai n、Llam aI n

Agent之HarnessEngineering:长时间运行 AI Agent 的有效 Harness 设计:如何通过初始化 agent、功能清单、进度日志、git 历史、增量推进、端到端测试与清晰收

头部AI社区如有邀博主AI主题演讲请私信—心比天高,仗剑走天涯,保持热爱,奔赴向梦想!低调,专注,谦虚,自律,反思,成长,还算比较正能量的博主,公益免费传播…内心特别想在AI界做出一些可以推进历史进程影响力的技术(兴趣使然,有点小情怀,也有点使命感呀

04-12Image 49 574

​ Agent之HarnessEngineering:长时间运行 AI Agent 的有效 Harness 设计:如何通过初始化 agent、功能清单、进度日志、git 历史、增量推进、端到端测试与清晰收尾,让模型在跨多个上下文窗口的长期任务中持续稳定地交付、避免过早完工与状态丢失—进而迁移到更广泛的长期自治工作场景中 目录 长时间运行 AI Agent 的有效 Harness 设计:如何通过初始化 agent、功能清单、进度日志、

“OpenClaw安全通过 多少?”——面试官一句话把我问懵了

DeepAIedu的博客

03-17Image 50 417

OpenClaw代表着 AI 从“对话”走向“执行”的范式革命。它确实能让个人变成一支队伍,让企业效 倍增。但别忘了,你交给它的每一分权限,都是悬在数据安全头上的一把刀。

炸裂干货!提示工程架构师揭秘Agentic AI 技术发展与应用

AI 算法实战派

01-11Image 51 756

Agentic AI(以下简称“Agent”)是一种能感知环境、自主决策、执行任务、持续学习的智能系统。目标导向:能理解并追求长期目标(而非单一指令);环境交互:能主动获取环境信息(如用户输入、数据库、外部工具);自主决策:能根据目标和环境,规划步骤、调整策略;学习进化:能从执行结果中总结经验,优化未来行为。简单来说,传统 AI 是“你说什么,它做什么”;而Agent是“你要什么,它想办法帮你做到”。首先,你需要明确Agent的目标——它要解决什么问题?“帮我自动生成博客文章”;

Anthropic AI 智能制造质检提示词技巧

weixin_35753431的博客

10-02Image 52 1137

本文探讨 Anthropic AI 在智能制造质检中的应用,重点分析提示词工程的设计原则与结构化方法,提升缺陷识别、根因分析和质量预测的准确性与可解释性。

Claude Opus 4.7 深度解读:代码能力暴涨 7 %,但 Anthropic 不敢放出的那个模型才叫恐怖

weixin_55357163的博客

04-21Image 53 667

Anthropic 的解释是harness选择导致的——4.6之前用的是多Agent框架在max effort下跑的,4.7 换成了统一框架。到了4月14号,二级市场(Caplight)已经到了6880亿,VC那边有人出到了8000亿美元——离Open AI 的8520亿只差6 %。8 7.6 % 意味着——**接近9成的真实bug,它能自己修了。我翻了一晚上外网资料(主要是 Anthropic 官方blog、Vellum的benchmark拆解、llm-stats的定价分析,还有HN上的讨论帖),说说我的理解。

人工智能 基于安全优先原则的 AI 发展路径研究:Anthropic 公司Claude模型的技术演进与伦理治理实践

04-14

内容概要:本文档是作者基于公开资料整理的关于 人工智能 公司 Anthropic 及其核心人物达里奥·阿莫迪(Dario Amodei)的个人学习与思考总结。文章详述了达里奥从旧金山的成长经历、学术背景,到加入并最终离开Open AI 的...

拆解 SDGT 算法:图神经网络 + Transformer 如何做短期电力负荷预测

2501_92464201的博客

05-03Image 54 843

├── data/│ ├── raw/├── utils/├── logs/主入口是m ai n.pyAustralian 风格模拟数据生成;CSV 读取、列检查、时间列解析、缺失值处理、异常值裁剪;仅用训练集拟合 StandardScaler,避免数据泄漏;按时间顺序构造 tr ai n / val / test;336 步 lookback 到 96 步 horizon 的多步负荷预测;STCG 动态邻接矩阵构建;MixHop 图卷积;

视觉SLAM算法介绍

具身小站

05-08Image 55 804

REF:视觉即时定位与建图算法综述。

AI 测试数据及模型质量2】换一批测试数据,模型得分差20 %——AI 评测翻车的根子,90 % 在数据质量 最新发布

testzhouzhou的博客

05-09Image 56 262

数据质量评估的六个关键维度:准确性(正确性)、完整性(必填字段缺失 )、一致性(数据自洽程度)、时效性(数据新鲜度)、代表性(样本分布匹配度)和合规性(数据合法性)。文章通过金融 AI 案例说明各维度测量方法及权重,指出代表性最难测量(需KL散度计算),合规性具有一票否决权。提供Python代码实现六维度量化评估,强调应关注最低维度分数而非综合评分。修复优先级建议:合规性>准确性>一致性>代表性>完整性>时效性。数据质量短板决定整体水平,模型优化前应先修复数据问题。

【InternNav】 工程详细分析

love20102011的博客

05-08Image 57 890

InternNav 是一个设计精良的具身导航研究框架,其核心创新是将大语言模型(慢思考/规划)与扩散策略(快执行/控制)结合的双系统架构,通过异步线程实现了高效的实时导航。框架支持从仿真训练到真实机器人部署的完整流程,具备良好的模块化和可扩展性。

AI 提示词经典示例完全 手册

彭大帅的博客

05-07Image 58 355

AI 提示词工程指南摘要 本文系统介绍了 AI 提示词的设计与优化方法,涵盖基础理论、框架设计、优化技巧及应用场景。提示词作为用户与 AI 的沟通桥梁,其质量直接影响输出效果。核心内容包括: 基础理论:提示词包含角色定义、任务指令和约束条件,通过语义理解、上下文关联和约束引导 AI 生成目标内容。 设计框架:如CRISPE(角色/请求/背景)、ROLES(目标/场景/步骤)、BROKE(背景/关键结果)等结构化框架,适用于不同任务场景。 优化技巧:避免模糊指令,分步拆解需求,结合思维链、少样本学习等方法提升输出精准度。

(论文速读)HAFNet : 用于红外小目标检测的分层注意力融合网络

LJ1147517021的博客

05-08Image 59 885

一种用于红外小目标检测的分层注意力融合网络HAFNet。针对现有U-Net方法在复杂场景下性能受限的问题,HAFNet设计了双分支语义感知模块(DSPM)作为特征提取主干,结合标准卷积和扩张卷积增强上下文语义交互。同时,通过层次特征融合编码器(HFFE)和层次特征融合解码器(HFFD)扩展了跳过连接,实现多尺度特征的有效融合。实验结果表明,HAFNet在NUAA-SIRST、IRSTD-1k和NUDT-SIRST三个公共数据集上均优于现有方法,达到了最先进的检测性能。

智能客服系统设计:从工单分类到自动派单的工程实现

2401_86407195的博客

05-03Image 60 2270

智能客服不止是问答机器人。本文拆解工单自动分类、意图识别、智能派单的工程实现,附完整工作流设计和配置示例。

Image 65

中國龍在廣州

博客等级 Image 66

码龄1年

1176 原创2万+点赞 1万+收藏 1455 粉丝

关注

私信

Image 67

Image 68: 万维广告联盟

🔥码云GVP开源项目 16k starUniapp + ElementUI 功能强大 支持多语言、二开方便Image 69广告

Image 70

热门文章

分类专栏

上一篇: 大模型最隐蔽的4种“坑”,大多数人每天都在踩

大家在看

最新文章

2026

05月 40篇

04月 122篇

03月 123篇

02月 87篇

01月 125篇

2025年 681篇

目录

  1. 喂得出答案,喂不出答案背后的「为什么」
  2. 先教「为什么」,再教「怎么做」
  3. 失控率从54%降到7%
  4. 列出规则,不如讲明白道理
  5. 从透明度文件到训练教材

展开全部Image 83

收起Image 84

展开全部Image 85

收起Image 86

Image 87: 万维广告联盟

🔥码云GVP开源项目 16k starUniapp + ElementUI 功能强大 支持多语言、二开方便Image 88广告

Image 89

展开全部Image 93收起Image 94

登录后您可以享受以下权益:

×立即登录

评论Image 99

Image 100被折叠的 条评论 为什么被折叠?Image 101到【灌水乐园】发言

查看更多评论Image 102

添加红包

祝福语

请填写红包祝福语或标题

红包数量

红包个数最小为10个

红包总金额

红包金额最低5元

余额支付

当前余额 3.43 元 前往充值 >

需支付:10.00 元

取消 确定

Image 103

成就一亿技术人!

领取后你会自动成为博主和红包主的粉丝 规则

Image 104

hope_wisdom

发出的红包

实付 元

使用余额支付

Image 105点击重新获取

Image 106Image 107Image 108扫码支付

钱包余额 0

Image 109

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。

2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

Image 110余额充值

Image 111

确定 取消Image 112

举报

Image 113

选择你想要举报的内容(必选)

原文链接(必填)

请选择具体原因(必选)

补充说明(选填)

取消

确定

Image 114点击体验 DeepSeekR1满血版Image 115 下载APP Image 116: 程序员都在用的中文IT技术交流社区 程序员都在用的中文IT技术交流社区 公众号 Image 117: 专业的中文 IT 技术社区,与千万技术人共成长 专业的中文 IT 技术社区,与千万技术人共成长 视频号 Image 118: 关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停! 关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!Image 119客服

新手引导

Image 120返回顶部

Image 121

Image 122

Image 123

Image 124

Image 125

-还原+1:1 还原