以下是关于 Berkeley 相关的 AI 模型信息:
Sky-T1-32B-Preview是一款开源的推理模型,基于Qwen2.5-32B-Instruct训练而成,拥有32B参数。它在数学、编程、物理和科学等复杂任务领域表现出色。使用入口:完全开源,提供训练数据集和代码。补充信息:NovaSky团队隶属于加州大学伯克利分校Sky Computing实验室,成立于2020年,致力于推动低成本、高效率的AI模型开发。用QwQ推理数据微调而成,与上方SmallThink类似https://novasky-ai.github.io/posts/sky-t1[heading4]【图像】SonyResearch●Micro Diffusion从零开始训练扩散模型(开源)[content]Micro Diffusion项目是一个开源的扩散模型训练方案。通过优化训练策略和计算资源分配,该项目能够在2.5天内,仅使用8张H100 GPU(成本不到2000美元),从零开始训练出与Stable Diffusion v1/v2质量相当的模型。此外,项目提供了完整的代码库和预训练模型检查点,方便用户进行实验和复现。训练过程设计得简单易用,支持逐步提升图像分辨率,并且详细说明了数据集设置和模型采样的相关细节。日本人想要有属于自己的图像模型❓https://github.com/SonyResearch/micro_diffusion
创业公司Inception Labs推出Mercury系列扩散大型语言模型(dLLM),可以快速生成高质量文本。与传统大型语言模型相比,在生成速度上Mercury提高了10倍,但却更便宜。该模型在NVIDIA H100上的运行速度超过1000个token/秒,这一速度以前只有使用定制芯片才能达到。[mercury.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/LOePbUvbNom74rxF7ZwcfqahnDd?allow_redirect=1)同时专注于代码的模型Mercury Coder也同时被提出,在多个编程基准测试中超越,如GPT-4o Mini和Claude3.5 Haiku等模型。?地址:https://www.inceptionlabs.ai/news如有任何问题请联系后台~电子邮箱:alolg@163.com
-估值接近140亿美元,提供AI训练数据标注服务。-融资将加速前沿数据的丰富,助力通往AGI。?https://scale.com/blog/scale-ai-series-f7⃣️?OpenAI与新闻集团达成内容许可协议:-访问News Corp刊物的当前和历史文章用于AI训练。-协议金额超过2.5亿美元,包括现金和使用OpenAI技术的信用。?https://openai.com/index/news-corp-and-openai-sign-landmark-multi-year-global-partnership/8⃣️??LearnLM-Tutor:Google DeepMind开发的AI教学模型-提供即时反馈,支持多学科教学,动态调整内容和难度。-增强学生的自主学习能力,提供连贯的教学体验。?https://xiaohu.ai/p/83769⃣️?️伯克利实验室研究"宙斯盾"数据集:-用YOLOv8模型训练,美军及其盟友驱逐舰关键部件的检测精度达0.926。?https://arxiv.org/pdf/2405.12167v1??Anthropic发现AI模型“黑盒子”方法:-开发扫描AI模型“大脑”的技术,识别特定概念的神经元集合。-可操控特征改变模型行为。?https://xiaohu.ai/p/83841⃣️1⃣️?Starlink卫星首次直接连接未改装手机:-完成视频通话,技术突破将与T-Mobile合作上线。