以下是关于如何让 DeepSeek 写论文的相关内容:
旧模型在文学创作时有过度道德说教和正面描述趋势,会导致结果生硬死板,是一种对齐税,因人类复杂,仅正面故事难共鸣、人物单薄。还提到大语言模型做概率预测会使生成内容同质化严重,使用 Deepseek 时需在控制和自由间平衡,建议给 Deepseek 更多自由发挥空间。
DeepSeek 很火,在 Benchmark 表现出色,做数学和代码题达 O1 标准,处于国际领先。其真正火的原因是文风优秀,有哲学思考,能触动人情感,文创能力顶尖,与其他模型不同,甚至被认为因其“发疯”而在创作上更出色。
需要注意的是,DeepSeek 有钱,有不输于巨头、远多于创业公司的弹药。但并不是所有巨头都愿意有一个自己的 DeepMind。
[heading2]总结关于AI工具的探讨与展望DeepSeek的优势与不足:DeepSeek在写文方面全面领先,但长文会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同prompt提问多次答案雷同。AI工具的配合使用:写理性文章时,可先与DeepSeek讨论思路,再用Cloud 3.5批量生成。AI的未来发展:认为今年是AI大年,各模型厂压力大,开源使技术路径公开,大厂都在努力赶超,未来AI可能能追本溯源解决最原始需求,带来人类的黄金时代。应对AI发展的策略:Sam Altman提出投资提升自身内在状态等以对冲AGI和ASI未来的风险,科幻小说家可能是未来史学家。关于利用AI创作小说及相关探索模仿小说家写作:让Deepseek模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征,如鲁迅的文风特点等。控制创作字数:用O1模型对AI创作的字数控制有一定效果,也可通过多轮对话让AI增删改查来调整字数。分享创作成果:邀请大家在腾讯频道发布用AI写的小说并鉴赏,比较谁写的更有意思。过往创作经验:回顾了之前用AI创作的相关经历,如用分制法完成复杂任务、开源提示词等,并探讨将以往优秀创作在R1模型中重新尝试。
[heading2]智能章节[12:39](https://waytoagi.feishu.cn/minutes/obcnmo3hj6o3pw99e79386lx?t=759000)旧模型文学创作弊端与Deepseek使用建议本章节财猫指出,旧模型在文学创作时有过度道德说教和正面描述趋势,会导致结果生硬死板,是一种对齐税,因人类复杂,仅正面故事难共鸣、人物单薄。还提到大语言模型做概率预测会使生成内容同质化严重,使用Deepseek时需在控制和自由间平衡,建议给Deepseek ie更多自由发挥空间。[14:52](https://waytoagi.feishu.cn/minutes/obcnmo3hj6o3pw99e79386lx?t=892000)Deepseek写小说及特色解析本章节围绕如何用deepseek写小说展开。指出deepseek很火,在Benchmark表现出色,做数学和代码题达O1标准,处于国际领先。其真正火的原因是文风优秀,有哲学思考,能触动人情感,文创能力顶尖,与其他模型不同,甚至被认为因其“发疯”而在创作上更出色。[20:14](https://waytoagi.feishu.cn/minutes/obcnmo3hj6o3pw99e79386lx?t=1214000)Deepseek R1大模型的特点与创作表现
这也是DeepSeek区别于大多数中国的AI创业公司,反而更像是一家研究机构的地方。这轮AI创业的创始人基本都是科学家和研究人员,但他们拿了VC和PE一轮又一轮的钱,就不能随心所欲地搞研究和发paper,而必须聚焦产品化和商业化(这很可能不是他们最擅长的事)。科技巨头养得起研究机构和科学家,但一旦要求研究成果迅速应用于产品和商业,团队也会变得更复杂,而不再有纯研究人员的简单和清澈。美国的一些科技巨头有不受商业目标干扰的研究机构,但时间过久,又难免沾染了学术界论资排辈的门阀气息。都是由最聪明的年轻人组成的商业公司的研究机构,只在关键的几个时间点出现过——几年前的OpenAI和DeepMind,以及现在的DeepSeek。一个证据就是:DeepSeek最好的“产品”除了模型,还有它的论文。无论是V-2还是V-3的发布,DeepSeek的两篇对应论文都得到了来自全球研究者的仔细阅读、分享、引用和大力推荐。相比之下,GPT-4发布之后OpenAI公布的论文几乎不能叫做论文。这年头做模型的都在抢在各种benchmark上拿名次,注重论文质量的已经不多了。而一篇详尽、规范和实验细节丰富的论文,仍然能获得业界额外的尊重。当然这件事的一个重要前提是:DeepSeek有钱,有不输于巨头、远多于创业公司的弹药。但并不是所有巨头都愿意有一个自己的DeepMind。