
一、DeepSeek-V4使用教程 – 从零开始掌握百万token超长上下文
DeepSeek-V4是深度求索公司于2026年4月24日正式发布的新一代开源大语言模型。作为中国AI领域的重要突破,V4系列在发布当天就与OpenAI的GPT-5.5“同框竞技”,展现了国产AI模型的强大实力。
DeepSeek-V4产品功能快览
DeepSeek-V4核心功能快览:DeepSeek-V4是深度求索推出的新一代大语言模型,分为Pro和Flash两个版本,均原生支持100万token超长上下文。V4-Pro拥有1.6万亿参数,在智能体任务评测中登顶开源模型第一;V4-Flash主打高性价比,API输出价格低至$0.28/百万token。模型在代码竞赛、数学推理等领域表现突出,兼容OpenAI和Anthropic接口标准,支持网页聊天、API调用和本地部署三种使用方式。
1.1 产品定位与技术规格
DeepSeek-V4定位为“开源领域的性能标杆”,旨在为开发者和企业提供高性能、低成本的大模型解决方案。根据官方技术报告,V4系列包含两个主要版本:
DeepSeek-V4-Pro:
- 总参数:1.6万亿(激活参数49B)
- 预训练数据:33T tokens
- 上下文长度:100万token
- 单token推理FLOPs:仅为V3.2的27%
- KV缓存内存占用:降低90%
DeepSeek-V4-Flash:
- 总参数:284B(激活参数13B)
- 预训练数据:32T tokens
- 上下文长度:100万token
- 单token推理FLOPs:仅为V3.2的10%
- KV缓存内存占用:降低93%
1.2 核心技术创新
DeepSeek-V4在模型架构上实现了多项突破:
- DSA稀疏注意力机制:通过token维度压缩技术,实现了全球领先的长上下文处理能力,同时大幅降低计算和显存需求。
- 三档推理强度:每款模型都提供Non-think(直出)、Think High(常规深度思考)、Think Max(强指令注入)三种推理模式,满足不同场景需求。
- 国产芯片适配:专门优化支持华为昇腾910B等国产芯片,成为国产大模型拥抱国产算力的关键里程碑。
二、DeepSeek-V4的主要功能和特点
2.1 核心功能亮点
百万token超长上下文:DeepSeek-V4原生支持100万token上下文,这意味着用户可以一次性输入约70万汉字的内容进行分析处理。例如,可以一次性上传整本《三体》小说(约60万字)进行深度分析,无需分段处理。
强大的代码能力:在代码竞赛基准测试中,V4-Pro-Max在LiveCodeBench上获得93.5分,超过GPT-5.4的91.7分和Gemini-3.1-Pro的89.2分。在Codeforces人类选手排行榜上排名第23位,展现了卓越的算法编程能力。
智能体任务表现突出:根据Artificial Analysis的评测,V4-Pro在真实场景智能体工作任务中得分1554,位居所有开源权重模型首位,超越Kimi K2.6、GLM-5.1等竞争对手。
开源与成本优势:采用MIT开源协议,权重全公开。API价格极具竞争力,V4-Pro输出价格为$3.48/百万token,仅为GPT-5.5的1/8.6。
2.2 技术特点详细解析
| 功能维度 | DeepSeek-V4-Pro | DeepSeek-V4-Flash | 技术优势 |
|---|---|---|---|
| 推理能力 | 人工分析智能指数52分 | 人工分析智能指数47分 | 相比V3.2提升10分 |
| 代码竞赛 | Codeforces评分3206 | 略低于Pro版本 | 超过GPT-5.4的3168分 |
| 数学能力 | HMMT 2026 Feb得分95.2 | 数学推理能力接近Pro | 与Opus-4.6 Max的96.2分差距极小 |
| Agent能力 | 智能体任务得分1554 | 简单任务表现相当 | 开源模型第一 |
| 知识储备 | AA-Omniscience得分-10 | AA-Omniscience得分-23 | 较V3.2提升11分 |
| 幻觉率 | 94% | 96% | 较V3.2的82%有所上升 |
三、如何使用DeepSeek-V4?
3.1 网页版免费体验
官方访问地址:https://chat.deepseek.com
操作步骤:
- 打开浏览器访问上述地址
- 点击右上角“开始对话”按钮
- 支持手机号验证码、微信快捷登录、邮箱注册三种方式
- 登录后,在模型列表中选择“DeepSeek-V4”版本
- 在对话框输入问题即可获得响应
实用技巧:
- 新用户每天有免费额度,足够日常使用
- 如果页面未显示V4选项,刷新页面即可(4月25日起已全面开放)
- 长对话建议每开启新话题就新建对话,避免模型“犯糊涂”
3.2 API接入(开发者推荐)
API平台地址:https://platform.deepseek.com
基础调用示例:
from openai import OpenAI
client = OpenAI(
api_key="你的API_KEY",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-v4-pro", # 或 deepseek-v4-flash
messages=[{"role": "user", "content": "你好"}]
)
print(response.choices[0].message.content)
API特点:
- 完全兼容OpenAI格式,只需修改base_url和model名
- 支持流式输出,适合长文本处理
- 提供思考模式切换、Json输出、工具调用等企业级功能
3.3 本地部署(进阶用户)
硬件要求:
- V4-Flash:单卡A100 80GB(最低配置),双卡A100/H100(推荐配置)
- V4-Pro:多卡集群,8卡H100+
使用vLLM部署:
# 安装vLLM
pip install vllm
# 启动V4-Flash服务
vllm serve deepseek-ai/DeepSeek-V4-Flash \
--tensor-parallel-size 4 \
--max-model-len 1000000 \
--gpu-memory-utilization 0.9
国产芯片适配:
- 华为昇腾910B:华为云已完成Day 0适配
- 寒武纪MLU:官方已开源适配代码
四、DeepSeek-V4的官方地址和获取方式
4.1 官方访问渠道
网页版:
- 主站:https://chat.deepseek.com
- 特点:功能最全,支持文件上传、联网搜索、代码解释器
移动端:
- 官方App:在应用商店搜索“DeepSeek”下载
- 微信小程序:搜索“腾讯元宝”或在搜一搜里找“DeepSeek”
API平台:
- 开发者平台:https://platform.deepseek.com
- 功能:API密钥管理、用量监控、文档查阅
4.2 第三方集成平台
云服务平台:
- 华为云MaaS:已适配V4-Flash,免部署一键调用
- AutoDL / 矩池云:按小时租GPU,成本较低
开源社区:
- Hugging Face:模型权重和推理代码
- GitHub:官方代码库和社区贡献
五、DeepSeek-V4 vs 同类型竞品对比分析
5.1 性能对比表格
| 对比维度 | DeepSeek-V4-Pro | GPT-5.5 | Claude Opus 4.7 | Gemini 3.1 Pro |
|---|---|---|---|---|
| SWE-bench Pro | 55.4% | 58.6% | 64.3% | 54.2% |
| Terminal-Bench 2.0 | 67.9% | 82.7% | 69.4% | – |
| LiveCodeBench | 93.5 | – | 88.8 | 89.2 |
| Codeforces评分 | 3206 | 3168 | – | – |
| BrowseComp | 83.4 | 84.4 | 83.7 | – |
| MCPAtlas | 73.6 | 67.2 | 73.8 | – |
| 上下文窗口 | 1M token | 1M token | 1M token | 1M token |
| 开源状态 | ✅ MIT协议 | ❌ 闭源 | ❌ 闭源 | ❌ 闭源 |
5.2 价格对比分析
| 模型 | 输入价格($/M) | 输出价格($/M) | 成本优势(对比GPT-5.5) |
|---|---|---|---|
| GPT-5.5 | $5.00 | $30.00 | 基准 |
| Claude Opus 4.7 | $5.00 | $25.00 | 接近 |
| DeepSeek-V4-Pro | $1.74 | $3.48 | 约1/3 ~ 1/8 |
| DeepSeek-V4-Flash | $0.14 | $0.28 | 约1/35 ~ 1/100 |
注:DeepSeek开启缓存命中后,V4 Flash的输入成本可低至$0.028,几乎可以忽略不计。
5.3 适用场景对比
选择DeepSeek-V4-Flash,如果你:
- 做高吞吐量的文本处理(摘要、分类、翻译)
- 预算有限但需要调用前沿模型
- 需要在自己的服务器上跑(数据合规、隐私要求)
- 预期场景:$0.01跑完一个完整应用构建
选择DeepSeek-V4-Pro,如果你:
- 做算法竞赛训练或刷题辅助
- 需要长上下文处理(100万token,代码库级别的分析)
- 需要MIT许可的开源权重进行微调
- 预期场景:竞赛编程Codeforces 3206分水准
选择GPT-5.5,如果你:
- 需要模型自主完成复杂多步任务(Agent工作流)
- 做企业级知识工作自动化(财务审计、法律文书、项目管理)
- 需要最强的命令行和计算机操作能力
- 预期场景:Terminal-Bench 82.7%,GDPval覆盖44个职业
选择Claude Opus 4.7,如果你:
- 做真实的多文件代码修改和仓库级别的bug修复
- 需要最严格的安全防护(Project Glasswing)
- 对代码的自我验证和逻辑检查有高要求
- 预期场景:SWE-bench Pro 64.3%,最强代码Agent
六、DeepSeek-V4的典型应用场景与实际体验
6.1 代码开发与编程辅助
实际体验案例:
根据凤凰网的实测,DeepSeek-V4-Pro能够连续自主编程60分钟以上,无需人工干预,完成复杂的数据库设计和安卓模拟器开发等工程任务。在代码竞赛场景中,V4-Pro-Max在LiveCodeBench上以93.5的得分超过GPT-5.4(91.7)和Gemini-3.1-Pro(89.2)。
开发者反馈:
“我用V4写了一个月的代码,从来没觉得它哪里比Claude差。但我的账单从每月3000多块掉到了不到100块。”——某创业公司CTO
6.2 长文档分析与处理
百万上下文实际应用:
- 场景一:一次性读完《三体》全文(约60万字),分析人物弧光和主题思想
- 场景二:代码仓库级理解,将整个项目代码打包分析,找出潜在bug
- 场景三:法律合同、学术论文、技术文档一次粘贴,多次提问
技术优势:相比传统方法,DeepSeek-V4在token维度进行压缩,结合DSA稀疏注意力,实现了全球领先的长上下文能力,并且大幅降低了对计算和显存的需求。
6.3 智能体工作流自动化
实测表现:
在智能体任务评测中,V4-Pro得分1554,位居所有开源权重模型首位,超越Kimi K2.6(1484)、GLM-5.1(1535)等竞争对手。但在Terminal-Bench 2.0测试中,V4-Pro得分67.9%,仍落后于GPT-5.5的82.7%。
实际工作流案例:
有用户在DeepSeek V4发布第二天,花2小时跑通了3个智能体工作流,包括数据爬取、自动化报告生成和代码审查流程。
6.4 数学与逻辑推理
竞赛数学表现:
在竞赛数学基准HMMT 2026 Feb中,V4-Pro-Max得分为95.2,与Opus-4.6 Max的96.2及GPT-5.4的97.7差距极小。Apex Shortlist得分90.2,超过同场对比的所有模型。
逻辑推理测试:
模型在海龟汤等逻辑题上表现出色,但在IMO数学难题和部分轻量级测试中陷入死循环或给出错误答案,推理稳定性还有提升空间。
七、DeepSeek-V4能为用户带来的价值
7.1 成本效益最大化
价格优势明显:
- V4-Pro输出价格$3.48/百万token,仅为GPT-5.5的1/8.6
- V4-Flash输出价格$0.28/百万token,成本优势达1/100
- 开启缓存命中后,V4 Flash输入成本可低至$0.028
投资回报分析:
对于中小企业和个人开发者,使用DeepSeek-V4可以将AI应用成本降低一个数量级。以月消耗1000万token的中等规模应用为例:
- GPT-5.5:约$300/月
- DeepSeek-V4-Pro:约$34.8/月
- 年度节省:超过$3000
7.2 技术自主可控
开源优势:
- MIT协议开源,权重全公开
- 支持本地部署,数据隐私有保障
- 可自定义微调,适应特定业务场景
国产芯片适配:
- 华为昇腾910B:华为云已完成Day 0适配
- 寒武纪MLU:官方已开源适配代码
- 降低对英伟达GPU的依赖,提升供应链安全性
7.3 性能与功能的平衡
专业场景优势:
- 代码开发:Codeforces评分3206,算法竞赛能力突出
- 长文档处理:100万token上下文,支持整本书籍分析
- 数学推理:竞赛数学基准接近顶级闭源模型
实际应用价值:
- 研发团队:代码审查、算法优化、技术文档生成
- 学术研究:文献分析、论文写作、数据整理
- 企业应用:合同审核、报告生成、知识管理
- 个人学习:编程辅导、语言学习、创意写作
八、DeepSeek-V4最近3到6个月内的重大功能更新
8.1 2026年4月24日:V4预览版正式发布
核心更新内容:
- 双版本发布:推出V4-Pro和V4-Flash两个版本
- 百万上下文:原生支持100万token超长上下文
- 开源协议:采用MIT协议,权重全公开
- API服务上线:兼容OpenAI和Anthropic接口标准
技术突破:
- 单token推理FLOPs降低73%
- KV缓存内存占用降低90%
- 支持华为昇腾等国产芯片
8.2 性能评测结果发布
第三方评测数据(发布后24小时内):
- Artificial Analysis:V4-Pro人工分析智能指数52分,开源推理模型第二
- Vals AI:V4在Vibe Code Benchmark中“压倒性优势”拿下开源权重模型第一名
- Arena.ai:V4 Pro思考模式在代码竞技场中列开源模型第3位
8.3 生态建设进展
云服务集成:
- 华为云MaaS平台首批上线DeepSeek-V4预览版
- PPIO等云平台提供开箱即用的V4服务
开发者工具完善:
- 官方提供完整的API文档和SDK
- 社区贡献了多种编程语言的客户端库
- Hugging Face模型下载量迅速增长
九、常见问题FAQ解答
9.1 基础使用问题
Q1:DeepSeek-V4如何免费使用?
A:有三种免费使用方式:
- 微信小程序:搜索“腾讯元宝”或在搜一搜里找“DeepSeek”
- 官网网页版:访问https://chat.deepseek.com,注册后每天有免费额度
- API调用:注册平台账号,新用户有一定免费额度
Q2:V4-Pro和V4-Flash有什么区别?
A:主要区别在于:
- V4-Pro:1.6万亿参数,性能更强,适合复杂任务
- V4-Flash:284B参数,响应更快,成本更低 具体选择取决于任务复杂度和对响应速度、成本的要求。
Q3:百万上下文具体能处理多长的文本?
A:100万token约等于70万汉字,可以一次性处理:
- 整本《三体》小说(约60万字)
- 中等规模代码仓库(数十万行代码)
- 长篇学术论文或技术文档
9.2 技术实现问题
Q4:DeepSeek-V4的幻觉率为什么比V3.2高?
A:根据评测数据,V4-Pro幻觉率为94%、V4-Flash为96%,较V3.2的82%有所上升。这可能是因为模型在追求更强推理能力的同时,在未知问题场景下更倾向于生成答案。建议在使用时对关键信息进行验证。
Q5:V4的API如何兼容OpenAI格式?
A:DeepSeek-V4的API完全兼容OpenAI格式,开发者只需修改两个参数:
- base_url改为”https://api.deepseek.com“
- model_name改为”deepseek-v4-pro”或”deepseek-v4-flash” 其他代码无需改动。
Q6:本地部署需要什么硬件配置?
A:最低配置要求:
- V4-Flash:单卡A100 80GB
- V4-Pro:多卡集群,推荐8卡H100+ 如果没有GPU,可以使用云服务如华为云MaaS、AutoDL等。
9.3 性能与价格问题
Q7:DeepSeek-V4相比GPT-5.5的优势在哪里?
A:主要优势包括:
- 价格:V4-Pro输出价格仅为GPT-5.5的1/8.6
- 开源:MIT协议,可本地部署和微调
- 代码能力:Codeforces评分3206,超过GPT-5.4的3168分
- 国产芯片适配:支持华为昇腾等国产芯片
Q8:V4在哪些场景下表现不如竞品?
A:根据评测,V4在以下场景仍有差距:
- 复杂Agent任务:Terminal-Bench 2.0得分67.9%,低于GPT-5.5的82.7%
- 真实软件工程:SWE-bench Pro得分55.4%,低于Claude Opus 4.7的64.3%
- 超长文档理解:MRCR 1M得分83.5,低于Opus 4.6的92.9
Q9:V4的价格会一直保持这么低吗?
A:DeepSeek一贯以“价格屠夫”著称,但具体定价策略可能随市场变化调整。目前V4-Flash的输出价格为0.28/百万token,开启缓存后输入成本可低至0.028。建议关注官方公告获取最新价格信息。
十、总结
DeepSeek-V4的发布标志着开源AI模型在性能上达到了新的高度。作为2026年4月推出的新一代大语言模型,V4在多个维度展现了令人印象深刻的能力:
10.1 技术突破与创新
架构创新:通过DSA稀疏注意力机制,实现了百万token上下文的突破,同时将计算和显存需求大幅降低。
性能提升:在代码竞赛、数学推理等专业领域,V4已经达到甚至超过部分顶级闭源模型的水平。Codeforces评分3206、LiveCodeBench 93.5分的成绩证明了其在算法编程方面的卓越能力。
国产化适配:专门优化支持华为昇腾等国产芯片,为AI算力自主可控提供了重要支撑。
10.2 市场定位与竞争优势
极致性价比:V4-Pro输出价格$3.48/百万token,仅为GPT-5.5的1/8.6,为中小企业和个人开发者提供了高性能、低成本的AI解决方案。
开源生态:采用MIT协议开源,权重全公开,支持本地部署和自定义微调,满足了数据隐私和定制化需求。
差异化竞争:V4没有追求在所有维度全面超越闭源模型,而是在代码能力、长上下文处理、成本控制等特定领域做到极致,形成了独特的竞争优势。
10.3 使用建议与展望
适合人群:
- 开发者:需要高性能代码助手和算法竞赛辅助
- 研究人员:需要处理长文档和进行复杂分析
- 中小企业:预算有限但需要前沿AI能力
- 国产化需求用户:需要支持国产芯片的AI解决方案
使用建议:
- 简单任务和预算敏感场景选择V4-Flash
- 复杂推理和代码开发选择V4-Pro
- 长文档处理充分利用百万上下文优势
- 关键信息输出建议进行人工验证
未来展望:
DeepSeek-V4的发布不仅是一次技术升级,更是开源AI生态的重要里程碑。随着国产芯片适配的完善和开源社区的壮大,V4有望在更多行业场景中发挥作用,推动AI技术的普及和应用。
正如一位创业公司CTO的评价:“我用V4写了一个月的代码,从来没觉得它哪里比Claude差。但我的账单从每月3000多块掉到了不到100块。”这或许正是DeepSeek-V4最大的价值所在——让前沿AI能力不再被高昂的成本所限制,真正实现AI技术的民主化。
参考文章或数据来源
本文引用了以下平台和来源的内容,数据来自权威评测机构和官方发布信息:
- 每经网:《海外评测DeepSeek-V4:智能体任务排名开源第一,幻觉率上升,Token消耗大》(2026年4月25日)
- 腾讯网:《DeepSeek V4发布24小时,重绘全球AI权力版图》(2026年4月25日)
- 凤凰网:《实测在DeepSeek-V4上烧1000万token,我发现了3个惊喜和1个意外》(2026年4月24日)
- 腾讯新闻:《海外评测DeepSeek-V4:智能体任务排名开源第一,幻觉率上升,Token消耗大》(2026年4月25日)
- 腾讯新闻:《实测DeepSeek V4:Agent能力领先开源,3D小票翻车,但经典洗车问题终于对了》(2026年4月24日)
- 深度求索官网:DeepSeek-V4官方介绍页面
- 企鹅号:《PPIO首批上线DeepSeek-V4预览版,1M超长上下文能力开箱即用》(2026年4月24日)
- 腾讯新闻:《一文读懂DeepSeek V4:1.6万亿参数、百万上下文和华为芯片》(2026年4月24日)
- 界面新闻:《一次读完《三体》?DeepSeek-V4预览版上线,标配百万上下文能力》(2026年4月24日)
- 腾讯新闻:《DeepSeek-V4预览版本正式上线并开源,拥有百万字超长上下文》(2026年4月24日)
- 实在智能:《DeepSeek V4使用技术指南:从网页聊到API接入的完整操作手册》(2026年4月4日)
- 兔子洞科技:《DeepSeek-V4实操指南:从注册到API调用,手把手教你用上百万上下文》(2026年4月25日)
- 今日头条:《DeepSeek V4发布!百万上下文价格暴降73%免费用》(2026年4月25日)
- 元启智盒:《DeepSeek V4发布第二天,我花2小时跑通了3个智能体工作流(保姆级实操)》(2026年4月25日)
- 腾讯云:《DeepSeek-V4,终于来了!这款「偏科生」如何凭四张王牌炸场?》(2026年4月24日)
- 腾讯网:《DeepSeek V4便宜9倍 却输了最关键一局》(2026年4月25日)
- 17推论坛:《沉寂15个月,DeepSeek V4今天终于来了!》(2026年4月24日)
- Mashable:《DeepSeek V4已来:其与ChatGPT、Claude 和 Gemini 相比如何》(2026年4月27日)网页
- 腾讯云:《DeepSeek V4 API 完全指南:性能实测、成本测算与接入方案(2026)》(2026年4月23日)
- 一灯AI:《DeepSeekV4正式发布:性能直逼 GPT-5.5》(2026年4月25日)
引用总结:本文引用了每经网、腾讯网、凤凰网、界面新闻等权威媒体的评测报道,以及深度求索官方发布的技术资料。性能数据主要来自Artificial Analysis、Vals AI、Arena.ai等第三方评测机构,价格信息参考了OpenRouter等平台的实际定价。所有数据均来自2026年4月发布的权威信息,确保了文章的时效性和准确性。
本文最新更新日期:2026年4月28日
数据统计
更多AI产品信息
DeepSeek-V4
已有 1,224 次访问体验
已收录
申请修改
DeepSeek-V4的官网地址是?
DeepSeek-V4的官网及网页版入口是:https://www.deepseek.com/ 官网入口👈
网站流量数据说明
网站数据仅供参考。评估因素包括访问速度、搜索引擎收录、用户体验等。 如需获取详细数据(如IP、PV、跳出率等),请联系站长获取。
推荐数据源
爱站/AITDK
关于DeepSeek-V4文章内容的特别声明
AI产品库AIProductHub是一个专注于AI产品收录与分享的网站平台,平台收录了1000余款AI产品,覆盖创作、办公、编程、视频生成、电商、设计、写作、图像生成等多个领域和行业,平台旨在帮助更多的用户发现更好用的AI产品。本站【AI产品库官网 – AIProductHub】提供的【DeepSeek-V4】信息来源于网络,由AI搜集汇总并整理成文。 对于该外部链接的指向,不由【AI产品库官网 – AIProductHub】实际控制。【DeepSeek-V4】在【2026-04-28 00:20】收录时, 该指向跳转网页链接内容属于合规合法,后期如出现违规内容,可直接联系网站管理员删除,【AI产品库官网 – AIProductHub】不承担任何责任。
本文地址:https://aiproducthub.cn/sites/deepseek-v4.html 转载请注明来源
相关导航

星火X2是科大讯飞基于全国产算力训练的新一代大模型,推理性能提升50%,数学能力媲美国际顶尖水平,支持130+多语言。

DeepL翻译
DeepL是一款采用先进神经网络技术的AI翻译工具,提供精准流畅的跨语言翻译服务,并注重数据安全与专业领域优化。

Tbox百宝箱
蚂蚁百宝箱Tbox是蚂蚁集团推出的多智能体协同AI平台,可实现一句话指令生成PPT、网页、播客等完整成果。

IconifyAI
IconifyAI是一款智能图标生成工具,通过AI技术快速将创意转化为专业图标,支持多种风格和自定义选项。

超能画布
超能画布是百度网盘推出的一款AI人像摄影工具,只需上传一张照片即可一键生成专业级创意写真,大幅降低摄影成本。

魔触AI
魔触AI是专为游戏行业打造的AI创作平台,通过人工智能技术快速生成游戏开发所需的各种数字资产。

MonkeyCode
MonkeyCode是长亭科技开源的企业级AI编程平台,支持私有化部署和自然语言编程以及MiniMax-M2.7免费无限量使用,通过规范驱动开发覆盖需求分析到代码Review全流程,保障代码安全的同时提升开发效率。

Qwen3.6-Plus
Qwen3.6-Plus是阿里最新大语言模型,具备顶尖编程智能体能力、百万token上下文和原生多模态理解,可自主完成复杂开发任务。
您必须登录才能参与评论!
立即登录
























百万token能干啥?完全看不懂
幻觉率升了,用着有点慌