以下是为您整合的相关内容:
《PROMPTS FOR AI DANCE MUSIC》:
大圣-技术开发/Agent:
ChatGPT 是在做什么,为什么它有效?
Hello and welcome!你好,欢迎光临!Thanks for opening this ebook and your mind to the future ofmusic creation using text.With this book and a creative spirit,letyour imaginations come alive with artistic and specific promptingstrategies.This book is your backstage pass to the party of tomorrow,where words can sketch new songs,inspire new horizons of musicalgenres and render timeless works of sonic wizardry…感谢你打开这本电子书,并将你的心灵敞开,迎接用文字创造音乐的未来。通过这本书和你的创造力,让你的想象力随着艺术和具体的提示策略而活跃起来。这本书是你进入未来派对的后台通行证,在这里,文字可以勾勒出新的歌曲,启发新的音乐风格,并呈现出永恒的声音魔法作品……Think of this as your invite to team up with AI and make more musicthan you’ve ever imagined.We're talking beats that pulse with life,rhythms that make your soul wanna dance,and melodies that stick withyou like the best kind of earworm.把这本书看作是你与AI合作的邀请,共同创作比你曾经想象的更多的音乐。我们说的是充满生命力的节拍,让你的灵魂想要跳舞的节奏,以及像最佳的耳虫一样萦绕在你心中的旋律。We've put together this book because we know music isn't just aboutthe notes;it's about the vibe,the feeling,and the journey.It's foryou—the producers,the bedroom DJs,the shower singers turnedsongwriters,and everyone who's ever felt a beat and thought,"Yeah,Iwanna make that."
大圣的个人宝藏:[大圣的个人宝藏-AGI](https://axsppz4oyvj.feishu.cn/wiki/VUyXwR3LuiJDWCkRjqkcU74hnUd?from=from_copylink)你好,我是大圣,我期望通过这篇文章让你快速的了解我。。全文无废话、请放心阅读[heading2]自我介绍(无title)[content]1.男,1993年,主业程序员,目前在杭州,老家河北,有个2岁的宝贝女儿2.AI超级个体打造者,专注于AI Agent、AI编程以及AI写作领域3.热爱写作,热爱分享,喜欢输出体系化的知识。擅长将复杂的AI知识讲解的通俗易懂。4.我身上的两个标签:#大圣好真诚啊#大圣讲东西讲的真好5.不喜欢将失败归结于信息差,不喜欢碎片化知识,在这个知识爆炸的年代,奉行少就是多的原则[heading2]当下在做[content]专注一件事:计划一年内将自己的工作流全部AI化,实现十倍提效。我目前的工作流主要包括:1.阅读&写作2.自媒体个人IP3.做公开课程&付费课程4.女儿日常陪伴
为什么只需将token值和token位置嵌入向量相加?我认为这里没有特别的科学。人们已经尝试了各种不同的方法,这个方法似乎是有效的方法之一。而且神经网络的故事中的一部分是,从某种意义上说,只要我们的设置“大致正确”,通常可以通过足够的训练来调整细节,而不必真正“理解神经网络如何配置自己”的工程细节。这是嵌入模块如何运行的,它操作字符串“hello hello hello hello hello hello hello hello hello hello bye bye bye bye bye bye bye bye bye bye”:每个token的嵌入向量的元素显示在页面下方,而在页面上方,我们首先看到一组“hello”的嵌入,然后是一组“bye”的嵌入。上面的第二个数组是位置嵌入,其看似随机的结构只是“被学习到”的(在这种情况下是在GPT-2中)。好的,那么在嵌入模块之后,transformer的“主要事件”就来了:一系列所谓的“注意块”(GPT-2有12个,ChatGPT的GPT-3有96个)。这一切都很复杂,类似于典型的难以理解的大型工程系统,或者说生物系统。但无论如何,这里是单个“注意块”的示意表示(适用于GPT-2):在每个注意力块中,都有一组“注意力头”【attention head】(对于GPT-2有12个,对于ChatGPT的GPT-3有96个),每个头都独立地在嵌入向量的不同值块上运行。(是的,我们不知道将嵌入向量分割成几个部分或不同部分的含义是什么好处,这只是已经“发现有效”的事情之一。)