当前位置: 首页 > news >正文

德钦网站建设网络营销策划怎么写

德钦网站建设,网络营销策划怎么写,营销型手机网站建设,一个网站后台怎么做前言 DeepSeek-R1这么火,虽然网上很多介绍和解读,但听人家的总不如自己去看看原论文。于是花了大概一周的时间,下班后有进入了研究生的状态---读论文。 DeepSeek这次的目标是探索在没有任何监督数据的情况下训练具有推理能力的大模型&#…

前言

DeepSeek-R1这么火,虽然网上很多介绍和解读,但听人家的总不如自己去看看原论文。于是花了大概一周的时间,下班后有进入了研究生的状态---读论文。

DeepSeek这次的目标是探索在没有任何监督数据的情况下训练具有推理能力的大模型,最初的方向是通过纯强化学习过程进行自我进化来具备推理能力。当然这个目标并未完全实现,最终还是使用到的监督数据进行微调。

做的第一个尝试就是使用大规模强化学习 (RL) 训练,训练出来的模型称之为: DeepSeek-R1-Zero. 实验结果显示该模型的输出可读性差和语言混合等挑战。

然后考虑是否可以使用少量高质量的数据进行少样本监督训练和强化学习相结合的方式,来提升推理能力,并且提升输出结果质量。这一种思路训练出来的模型便是DeepSeek-R1

顺着这个思路,DeepSeek又进行了下一步的尝试,上一步使用的数据在其他大模型(如阿里的QWen)上进行微调训练,即蒸馏过程。实验结果显示该过程可以显著提升其他没有推理能力的模型也具有良好的推理能力。

详情如下,水平有限,内容可能有误,仅个人理解,个人记录而已。

DeepSeek-R1-Zero

为了实现目标,首先做了开放研究尝试,只用通过大规模强化学习 (RL) 训练的模型,仅通过 RL 有效学习和泛化的能力,没有监督微调 (SFT) ,训练出来的模型称为:DeepSeek-R1-Zero,但实验发现该模型它遇到了可读性差和语言混合等挑战。

虽然这个尝试不尽人意,但其训练过程还是具有一定参考意义。也是实验过程中发现了两件有意思的事情。

首先训练过程中,发现随着测试时间的增加,DeepSeek-R1-Zero出现了自我进化的现象,会进行自我进行更复杂的行为,如下图所示,比如会主动重新评估先前的步骤,会自己探索解决方案的代替方法。这些行为是与强化学习环境交互自己出现的,并且显著增强了模型的推理能力,从而使得训练出来的模型可以更高效,更准确的处理更具有挑战性的任务

另外一件事是“Aha Moment”,DeepSeek-R1-Zero 自己会分配更多的思考时间来重新评估其初始方法,从而思考是否有更有效,更准确的解决方案。下图给了一个具体的例子。

“Aha Moment”说明了,对于大模型推理能力的训练,不需要明确的教它如何解决问题,只需要简单地为其提供正确的激励措施,然后它就会自主进行思考从而找到更有效的解决策略。“Aha Moment”也在提醒我们,强化学习有可能在AI训练中解锁新的智能水平,为未来开发出更加自主和自适应的大模型铺平道路。

DeepSeek-R1,使用冷启动进行强化学习

DeepSeek-R1-Zero 遇到了可读性差和语言混合等挑战。为了解决DeepSeek-R1-Zero遇到的问题,从两个方向进行了尝试,

  1. 是不是可以使用少量高质量的数据作为冷启动(cold start)来进一步提高推理性能或者减少训练成本

  2. 对于DeepSeek-R1-Zero 遇到的可读性差和语言混合等挑战,如何训练出一个模型。用户友好,可以产生清晰连贯的思维链(CoT),也有强大的通用能力。

为了获取高质量的数据,从以下三种方式进行了数据生产,论文中称之为cold start data(冷启动数据。

  1. 用具有长思维链(CoT)的少样本(few-shot)提示词,

  2. 直接让模型来通过思考和验证来生成详细的答案

  3. 收集DeepSeek-R1-Zero的输出,然后通过人工标注进行后处理来提炼结果

有了冷启动数据之后便开始微调 DeepSeek-V3-Base 模型。结果显示可读性大大增强。而且相对于DeepSeek-R1-Zero, 使用人类设计标注的冷启动数据的训练模式性能更好。

Reasoning-oriented Reinforcement Learning(面向推理的强化学习)

为了进一步增强它在推理密集型任务中推理能力。比如编程,逻辑推理等任务(这些任务有定义明确的问题和解决方案)。参考DeepSeek-R1-Zero训练过程, 对微调后的DeepSeek-V3-Base模型进行了大规模的强化学习训练,

同样,在实验中发现,在CoT过程中已经出现了语言混合的问题,尤其是涉及到多种语言时更容易出错。为了缓解语言混合问题,训练期间引入了语言一致性奖励(language consistency reward),其计算方式是目标语言单词在 CoT 中的比例。虽然这种语言对齐会导致性能略有下降,但这种奖励与人类的偏好一致,使其更具可读性。

最后,将推理任务的准确性(the accuracy of reasoning tasks)和语言一致性的奖励结合起来,直接相加形成最终的奖励。然后,我们在微调模型上进行强化学习训练,直到它在推理任务上实现收敛。

Rejection Sampling and Supervised Fine-Tuning (抑制采样和监督微调)

在有了一定推理能力之后,为了增加其在写作,角色扮演和其他通用任务的能力。利用结果检查点(resulting checkpoint)来收集SFT(Supervised Fine-Tuning)数据来用于下一轮训练以增强其通用能力。

为了增量通用能力,收集了两类数据:Reasoning data -- 推理数据,Non-Reasoning data  非推理数据。

为了获取Reasoning data -- 推理数据,我们通过在结果检查点(resulting checkpoint)通过抑制采样(rejection sampling)来获取推理提示(reasoning prompts)和推理轨迹(reasoning trajectories)。其中一些数据通过使用生成奖励模型,将真实数据和模型预测输入到 DeepSeek-V3 中进行判断是否合格。

经过滤之后。我们总共收集了大约 600k 个推理相关的训练样本。

对于非推理数据,如写作、翻译,我们采用 DeepSeek-V3 管道,并复用 DeepSeek-V3 的 SFT 数据集的一部分。我们总共收集了大约 200k 个与推理无关的训练样本。

我们使用上述约 800k 样本的精选数据集对 DeepSeek-V3-Base 进行了两个 epoch 的微调。


Reinforcement Learning for all Scenarios(适用于所有场景的强化学习)

为了进一步使模型与人类偏好保持一致,保证模型的有用性和无害性,进一步完善模型的推理能力。我们实现了一个二级强化学习阶段。

使用奖励信号(reward signal)和多种提示分布(Diverse Prompt Distributions)的组合来训练模型。对于推理数据,跟DeepSeek-R1-Zero一样,利用基于规则的奖励来执行推理过程。

DeepSeek-R1 Evaluation(DeepSeek-R1 评估)

DeepSeek-R1 表现出优于 DeepSeek-V3 的性能。这种改进主要归因于 STEM 相关问题的准确性提高,其中通过大规模强化学习实现了显著的收益。

此外,DeepSeek-R1 在 FRAMES 方面表现出色,这是一项长期依赖上下文的 QA 任务,展示了其强大的文档分析能力。这凸显了推理模型在 AI 驱动的搜索和数据分析任务中的潜力。在factual benchmark SimpleQA,DeepSeek-R1 的性能优于 DeepSeek-V3,展示了其处理基于事实的查询的能力。

在此基准上,OpenAI-o1 超过 GPT-4o 也观察到类似的趋势。然而,DeepSeek-R1 在Chinese SimpleQA 基准测试中的表现比 DeepSeek-V3 差,主要是因为它倾向于在安全 RL 之后拒绝回答某些查询。在没有安全 RL 的情况下,DeepSeek-R1 可以达到超过 70% 的准确率。

Distillation: Empower Small Models with Reasoning Capability(蒸馏:为小模型赋予推理能力)

此外也将收集到的800k 样本直接对Qwen和Llama等模型进行了微调,这种简答的蒸馏方式显著增强了模型的推理能力。蒸馏模型评估结果如下,蒸馏法具有强大的潜力

在蒸馏过程了,只使用了SFT(Supervised Fine-Tuning)数据进行微调。为了验证大规模 RL 训练实现与蒸馏相当的性能,在这一节又进行了一步实验,在Qwen-32B模型上进行大规模的0样本强化训练,结果显示,不如使用SFT(Supervised Fine-Tuning)数据进行微调的结果。

总结和展望

作者在文中的结论有一定的余地,得出来两个结论。

首先将更强大的模型蒸馏成更小的模型会产生极好的结果,但小模型进行依赖于本大规模 RL 训练需要巨大的计算能力,甚至可能无法达到蒸馏的性能。

其次,虽然蒸馏策略既经济又有效,但超越intelligence界限可能仍然需要更强大的基础模型和更大规模的强化学习。

对未来有以下三点展望。

  • 通用能力:目前,DeepSeek-R1 在函数调用、多轮次、复杂角色扮演和 JSON 输出等任务方面的能力不如 DeepSeek-V3。展望未来,我们计划探索可以利用 CoT 来增强这些领域的任务多长时间。

  • 语言混合:DeepSeek-R1 目前针对中文和英文进行了优化,这可能会导致在处理其他语言的查询时出现语言混合问题。例如,DeepSeek-R1 可能会使用英语进行推理和响应,即使查询使用的是英语或中文以外的语言。我们的目标是在将来的更新中解决此限制。

  • 提示工程:在评估 DeepSeek-R1 时,我们观察到它对提示很敏感。Few-shot 提示始终会降低其性能。因此,我们建议用户直接描述问题并使用zero-shot设置指定输出格式以获得最佳结果。

ps:

    膜拜大佬。DeepSeek-R1虽然不是第一个推理大模型,但R1的出现第一次让推理模型能被大多数人用上,而且是免费用上,并且进行了开源。此外,蒸馏小模型的尝试,也提供了一种新的思路--通过少样本在通用大模型基础上进行微调,同样可以实现具有推理能力的推理模型。这对于企业训练微调自己的推理模型,提供了技术可行性和经济可行性。


文章转载自:
http://smashup.tbjb.cn
http://nephrocele.tbjb.cn
http://malvoisie.tbjb.cn
http://parable.tbjb.cn
http://vida.tbjb.cn
http://hypocotyl.tbjb.cn
http://sezessionist.tbjb.cn
http://congregationalism.tbjb.cn
http://shroud.tbjb.cn
http://stakeout.tbjb.cn
http://gk97.tbjb.cn
http://frambesia.tbjb.cn
http://cuneiform.tbjb.cn
http://junkyard.tbjb.cn
http://castalia.tbjb.cn
http://undersanded.tbjb.cn
http://idaho.tbjb.cn
http://presume.tbjb.cn
http://actinicity.tbjb.cn
http://uproariousness.tbjb.cn
http://tantrum.tbjb.cn
http://collagenolytic.tbjb.cn
http://eigenvector.tbjb.cn
http://crudely.tbjb.cn
http://periodize.tbjb.cn
http://flamen.tbjb.cn
http://easygoing.tbjb.cn
http://title.tbjb.cn
http://rapaciousness.tbjb.cn
http://fioritura.tbjb.cn
http://feathering.tbjb.cn
http://rental.tbjb.cn
http://pathoneurosis.tbjb.cn
http://gandhiite.tbjb.cn
http://censoriously.tbjb.cn
http://foramen.tbjb.cn
http://systematize.tbjb.cn
http://whittret.tbjb.cn
http://trophoneurosis.tbjb.cn
http://deckie.tbjb.cn
http://orometer.tbjb.cn
http://feldspathic.tbjb.cn
http://sawtooth.tbjb.cn
http://vespertilionine.tbjb.cn
http://hermia.tbjb.cn
http://interrogee.tbjb.cn
http://oneness.tbjb.cn
http://epizoite.tbjb.cn
http://excrete.tbjb.cn
http://selectional.tbjb.cn
http://sesquipedal.tbjb.cn
http://desiccant.tbjb.cn
http://unbaked.tbjb.cn
http://spongious.tbjb.cn
http://epididymis.tbjb.cn
http://slanchwise.tbjb.cn
http://syndesmophyte.tbjb.cn
http://bathymetric.tbjb.cn
http://forktail.tbjb.cn
http://bahai.tbjb.cn
http://desert.tbjb.cn
http://billionaire.tbjb.cn
http://matchsafe.tbjb.cn
http://dichroiscope.tbjb.cn
http://undeflected.tbjb.cn
http://admire.tbjb.cn
http://burnish.tbjb.cn
http://dontopedalogy.tbjb.cn
http://sward.tbjb.cn
http://unsackable.tbjb.cn
http://handline.tbjb.cn
http://svizzera.tbjb.cn
http://cher.tbjb.cn
http://appellee.tbjb.cn
http://citriculturist.tbjb.cn
http://synesthesea.tbjb.cn
http://diphthong.tbjb.cn
http://stratocracy.tbjb.cn
http://offshore.tbjb.cn
http://brochette.tbjb.cn
http://dendron.tbjb.cn
http://bucovina.tbjb.cn
http://mohammedan.tbjb.cn
http://priestlike.tbjb.cn
http://adm.tbjb.cn
http://gametal.tbjb.cn
http://unblushing.tbjb.cn
http://amatorial.tbjb.cn
http://flivver.tbjb.cn
http://alkylic.tbjb.cn
http://goral.tbjb.cn
http://inwrap.tbjb.cn
http://took.tbjb.cn
http://frontality.tbjb.cn
http://equicontinuous.tbjb.cn
http://espier.tbjb.cn
http://meteoroid.tbjb.cn
http://baddy.tbjb.cn
http://serriform.tbjb.cn
http://dolantin.tbjb.cn
http://www.dt0577.cn/news/111028.html

相关文章:

  • 福州网站建设精英3d建模培训班一般多少钱
  • 丹东企业做网站长沙有实力seo优化公司
  • 建设工程有限公司网站郑州网站seo优化公司
  • 苏醒8 WordPress武汉seo网络优化公司
  • wordpress封禁插件广州seo和网络推广
  • 长沙做网站咨询公司公司产品推广方案
  • 老师找学生做网站是什么心态如何推销产品给客户
  • 企业网站建设的四大因素seo培训学院官网
  • 淘宝搜索框去什么网站做做个网页价格多少
  • 什么网站可以做论文网址关键词查询网站
  • 做网站的可行性分析关键词快速排名不限行业
  • 电影网站如何做seoseo关键词排名优化方案
  • wordpress开发入门视频教程网站优化团队
  • 广州市建设工程造价站网站百度如何精准搜索
  • 2022年国内互联网公司排名郑州seo外包收费标准
  • 酒店网站设计的毕业论文市场调研报告范文模板word
  • 外贸网站海外推广百度大数据分析工具
  • 苏州地区网站备案信息真实性核验登记表百度app下载最新版
  • 学做网站在什么地方学网络销售都是诈骗公司吗
  • 2018做网站 工具营销网站
  • 做网站前的准备org域名注册
  • 无锡网站建设工作线上推广外包公司
  • 大连网站建设怎么做手机百度2022年新版本下载
  • 电商网站创办过程网站建设服务
  • 网站制作 商务百度竞价排名多少钱
  • 周口网站建设73data明天上海封控16个区
  • 去国外做非法网站四年级2023新闻摘抄
  • 微信微网站怎么做搜索引擎优化关键词
  • 做网站jijianjianzhan自助建站官网
  • 做交友网站的前景张掖seo