Github Daily Trending
- 发布于
本期内容涵盖利用微信记录构建个人风格数字分身、AI短视频自动生成工具、AI应用开发示例代码集、Java的阿里云大模型集成框架、LLM综合学习资源、微软的1-bit LLM CPU推理框架、ComfyUI视频生成节点集、LLM应用评估监控平台、全能安全扫描工具、开发者学习路线图以及PyTorch大规模AI模型训练库。
xming521 / WeClone
WeClone项目旨在利用个人微信聊天记录微调大语言模型,创建具有个人风格的数字分身,支持安全本地部署和多平台聊天机器人集成。
项目介绍
WeClone 是一个旨在通过个人聊天记录创建数字分身的一站式解决方案。项目的核心理念是利用微信等社交平台的聊天历史数据,对大型语言模型(LLM)进行微调,使其学习用户的独特语言风格、习惯和思维方式,“复刻”出用户的个性化特征,从而实现一个能够模拟用户进行对话的数字分身。
该项目提供了构建数字分身的完整流程,涵盖了从聊天数据的导出、隐私信息的过滤、数据预处理、到模型训练(微调)和最终将微调后的模型部署到聊天机器人的全链路。它尤其强调数据安全和隐私保护,支持本地化部署和训练,并内置了隐私信息过滤功能,如自动去除手机号、身份证号、邮箱和网址,并允许自定义过滤词汇。
核心功能包括:
- 提供完整的数字分身打造流程,覆盖数据处理、模型微调和部署。
- 利用微信聊天记录等个人对话数据对大型语言模型进行LoRA等适配器微调,使模型具备个人风格。
- 支持将训练好的数字分身绑定到多种主流社交平台的聊天机器人,包括微信、QQ、Telegram、企业微信和飞书。
- 内置隐私信息过滤和本地化部署能力,确保用户数据的安全可控。
技术栈与依赖:
- 主要使用Python编程语言。
- 依赖大语言模型,项目默认使用Qwen2.5-7B-Instruct模型进行微调。
- 支持通过LoRA、QLoRA等适配器微调方法降低硬件(显存)要求,推荐使用16GB显存进行7B模型的LoRA微调。可根据需求和硬件条件选择LLaMA Factory支持的其他模型和微调方法。
- 数据提取推荐使用PyWxDump工具获取微信聊天记录。
- 部署到聊天机器人时,项目推荐使用AstrBot作为多平台聊天机器人框架。
- 依赖uv进行Python环境管理和依赖安装,依赖deepspeed进行多卡训练(可选)。
- 使用vllm进行离线推理及数据评分(清洗)。
安装与配置概述:
- 要求CUDA版本12.4及以上(适用于NVIDIA GPU)。
- 建议使用uv创建Python虚拟环境并安装依赖。
- 需要将配置文件模板
settings.template.jsonc
复制并重命名为settings.jsonc
进行个性化配置。 - 需要使用PyWxDump等工具导出微信聊天记录CSV文件,并放置在指定目录下进行预处理。
基本使用方法概述:
- 通过命令行工具
weclone-cli
执行数据预处理、模型训练、启动WebUI或API进行推理、以及测试模型等步骤。 - 数据预处理包括合并连续消息和匹配问答对,可配置时间窗口参数。
- 模型训练通过
weclone-cli train-sft
命令启动单卡或多卡训练(需配置deepspeed)。 - 推理可通过
weclone-cli webchat-demo
启动网页demo进行简单测试,或通过weclone-cli server
启动API服务供聊天机器人调用。
适用场景与目标用户:
- 主要面向希望创建个人风格数字助手的技术爱好者、开发者或普通用户。
- 可用于构建个性化的聊天机器人,使其回复更具个人特色,应用于社交、纪念、娱乐等场景。
- 对于希望在本地安全地处理和微调个人数据的用户尤其适用。
项目状态与许可证:
- 项目处于快速迭代期。
- 根据截图微调效果显示,使用Qwen2.5-14B-Instruct模型和约3万条有效数据进行微调,损失函数(loss)可降至约3.5。
- 项目遵循AGPL-3.0许可证。
特点警告和免责声明:
- 项目明确正在快速迭代,当前效果非最终效果。
- 微调效果与模型大小和训练数据(数量与质量)密切相关。
- 强调保护个人隐私,提醒用户不要泄露个人信息,并通过内置工具过滤敏感数据。
- 提供详细的免责声明,警告用户切勿将本项目用于非法用途,否则后果自负,项目及其开发者不承担任何责任。仅供学习交流使用,并建议在24小时内删除代码和程序。
项目发展路线图包含更丰富的上下文支持(对话、时间、对象信息)、Memory支持、多模态能力、数据增强以及可能的GUI界面。
项目统计与信息
- 作者: xming521
- 主要语言: Python
- Stars: 5480 ⭐
- Forks: 421 🍴
- 本周期新增 Stars: 970 ⭐
要了解更多关于 xming521 / WeClone 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
harry0703 / MoneyPrinterTurbo
MoneyPrinterTurbo是一个AI短视频自动生成工具,用户只需提供主题,即可全自动完成文案、素材、字幕、配乐等制作过程,支持多种大模型、尺寸和部署方式,大幅降低视频制作门槛。
项目介绍
MoneyPrinterTurbo 是一个利用人工智能大模型自动生成短视频的项目。用户只需提供一个视频主题或关键词,该工具便能全自动完成从视频文案生成、视频素材查找、字幕生成、背景音乐添加,到最终合成高清短视频的全过程。项目提供了清晰的 MVC 架构,支持 API 和 Web 界面两种使用方式,极大地降低了短视频制作的门槛。
核心功能和特性包括:
- 支持 AI 自动生成视频文案,也允许用户自定义文案。
- 支持生成多种高清视频尺寸,包括竖屏 9:16 (1080x1920) 和横屏 16:9 (1920x1080)。
- 具备批量视频生成能力,允许一次生成多个视频供用户选择。
- 可以设置视频片段时长,方便控制素材切换的节奏。
- 支持中文和英文视频文案处理。
- 提供多种真人语音合成选项,用户可实时试听效果,并支持 Azure 等更真实的语音服务(需配置 API Key)。
- 支持字幕生成,提供丰富的自定义选项,如字体、位置、颜色、大小和描边设置。
- 可添加背景音乐,支持随机或指定音乐文件,并能调节音量。项目默认包含一些无版权高清视频素材,也支持使用本地素材。
- 集成了多种知名大模型,如 OpenAI、Moonshot、Azure、gpt4free、one-api、通义千问、Google Gemini、Ollama、DeepSeek、文心一言、Pollinations 等。特别推荐国内用户使用 DeepSeek 或 Moonshot,可避免 VPN。
计划在后期增加 GPT-SoVITS 配音支持、优化语音合成的自然度和情绪丰富度、增加视频转场效果、扩展视频素材来源并提升匹配度、增加视频长度选项、支持更多语音合成服务商(如 OpenAI TTS),并考虑自动上传到 YouTube 平台。
项目的配置要求建议至少具备 4 核 CPU、4G 内存,显卡非必需。支持 Windows 10 及以上、MacOS 11.0 及以上系统。
快速开始方式多样,包括:
- 在 Google Colab 中直接运行,无需本地环境配置。
- 提供 Windows 一键启动包,下载解压即可使用。
- 支持 Docker 部署,通过
docker-compose up
命令即可启动 Web 界面 (http://0.0.0.0:8501) 和 API 服务 (http://0.0.0.0:8080/docs)。 - 支持手动部署,需要安装 Python 3.11、配置虚拟环境并安装依赖,还需安装 ImageMagick 并正确配置路径。手动启动方式有 Windows 的
webui.bat
或python main.py
(API),以及 MacOS/Linux 的sh webui.sh
或python main.py
(API)。
语音合成支持查看详细的声音列表。字幕生成提供 edge
和 whisper
两种模式,前者速度快但质量可能不稳定,后者速度慢且对配置有一定要求,但质量更可靠;Whisper 模式在无法访问 HuggingFace 时需手动下载模型文件并放置到指定路径。背景音乐存储在 resource/songs
目录,字幕字体存储在 resource/fonts
目录。
项目遵循 MIT 许可证。对于部署和使用中的常见问题,如 ffmpeg 未找到、ImageMagick 安全策略错误、文件打开数限制过多以及 Whisper 模型下载失败等,项目中提供了详细的解决方案。
MoneyPrinterTurbo 的目标用户是内容创作者、营销人员或任何希望通过自动化工具快速生成短视频的用户,尤其适用于需要批量制作视频或对视频编辑不熟悉的用户,降低了视频制作的技术门槛。
项目统计与信息
- 作者: harry0703
- 主要语言: Python
- Stars: 32206 ⭐
- Forks: 4538 🍴
- 本周期新增 Stars: 1409 ⭐
要了解更多关于 harry0703 / MoneyPrinterTurbo 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
i-am-alice / 3rd-devs
这份 GitHub 仓库收集了 AI_devs 3 课程的 AI 应用开发示例代码,涵盖了 LLM 应用的对话管理、搜索、记忆、多模态处理、RAG 等多种技术实践。
项目介绍
这是一个包含 AI_devs 3 课程示例代码的 GitHub 仓库。项目主要使用 JavaScript 和 TypeScript 开发,大部分示例为后端代码,需要 Node.js 和 Bun 运行环境。
项目提供了丰富的示例,涵盖了大型语言模型(LLM)应用开发的多个方面:
主要功能与特性:
- 对话管理:实现带有摘要机制的对话线程,使模型能回顾之前的对话内容。
- 搜索与信息获取:演示了如何使用 Firecrawl 等工具进行网页搜索和内容抓取,并根据需求筛选合适搜索的域名。
- 记忆与上下文:展示了基于对话上下文决定是否存储信息以及如何利用存储的信息(如 Markdown 文件)构建长期记忆的机制,并可通过 Obsidian 等工具可视化记忆关联。
- 可观测性与监控:集成了 Langfuse,用于记录和追踪模型请求及其响应,便于调试和优化。
- 文本处理:包含了计算 OpenAI 模型代币数量的示例,以及处理文本达到最大输出代币限制的策略。
- 内容过滤:演示了依据预定义的“宪法”(规则)过滤不符合要求的模型响应。
- 视觉与音频处理:提供了使用视觉模型(如 GPT-4o, Mistral Pixtral)处理图像,以及进行音频转录、语音生成(ElevenLabs)、视频内容摘要和旁白的示例。
- 文档处理与解析:展示了文本分割、非结构化文档(如 Markdown)解析等技术。
- 检索增强生成 (RAG):包含了从基础到改进的 RAG 实现示例,通过外部知识增强模型能力,涉及向量数据库(Qdrant)和搜索引擎(Algolia)的使用。
- 混合搜索与同步:演示了结合向量搜索和关键词搜索的混合搜索方法,以及数据同步到搜索索引的示例。
- 知识图谱:提供了使用 Neo4j 图数据库存储和查询结构化知识的示例。
- 外部集成:展示了需要 API 密钥验证的外部服务调用示例,并包含了简单的速率限制机制。
- 前后端交互:部分示例(如音频和思维导图)提供了前端界面(使用 Vite)与后端交互的完整演示。
技术栈/依赖:
- 编程语言:JavaScript, TypeScript
- 运行环境:Node.js, Bun
- AI/LLM 模型提供商:OpenAI, Mistral.ai, Google AI Studio (Gemini)
- 搜索工具:Firecrawl, Algolia
- 向量数据库:Qdrant
- 图数据库:Neo4j
- 可观测性平台:Langfuse
- 其他工具:ElevenLabs (语音生成), Unstructured (文档解析), promptfoo (提示词测试)
- 开发工具:Vite
安装与配置: 项目需要 Node.js 和 Bun 环境。克隆仓库后,需要使用 bun install
安装依赖。大部分示例运行前需要复制 .env.example
为 .env
,并填入相应的 API 密钥(OpenAI 密钥通常是必需的,其他如 Firecrawl, Linear, Langfuse, Mistral.ai, Google AI Studio, ElevenLabs, Qdrant, Algolia, Neo4j 的密钥根据具体示例需求填写)。部分示例(如 Linear)还需要配置 webhook 或确保本地服务可从外部访问(如使用 ngrok)。
Docker 安装方式: 提供了 Dockerfile 和 setup 脚本,允许用户在 Docker 容器中构建和运行项目环境,方便隔离依赖和部署。
适用场景: 该项目主要面向参与 AI_devs 3 课程的学习者和开发者,提供了一系列实际的代码示例,用于学习、理解和实践基于大型语言模型构建应用程序的各种技术和模式,包括对话系统、知识检索、多模态处理、可观测性、数据集成等。
项目状态: 项目处于积极更新状态,包含多季(S01-S05)的课程示例,最新的コミット日期较近。
总体而言,这是一个为 AI 应用开发者提供的实用代码仓库,通过具体示例帮助大家掌握与各种 LLM 模型和相关工具集成的技术细节。
项目统计与信息
- 作者: i-am-alice
- 主要语言: TypeScript
- Stars: 357 ⭐
- Forks: 252 🍴
- 本周期新增 Stars: 68 ⭐
要了解更多关于 i-am-alice / 3rd-devs 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
alibaba / spring-ai-alibaba
Spring AI Alibaba是一个基于Spring AI的Java框架,旨在帮助开发者更便捷地集成阿里云大模型(如QWen)以构建AI原生应用,提供包括文本、多模态、函数调用和RAG等多种AI能力。
项目介绍
项目名称为 Spring AI Alibaba,其核心定位是为 Java 开发者提供一个 Agentic AI 框架。项目基于 Spring AI 构建,旨在帮助开发者更便捷地构建 AI 原生应用。
项目简介/概述: Spring AI Alibaba 是一个 Java 应用程序框架,它扩展了 Spring AI 的能力,使其能够与阿里云的 QWen 大语言模型服务以及其他云原生基础设施无缝集成。该框架专注于降低在 Java 生态系统中开发基于 AI Agent 的应用的复杂度。
主要功能和特性:
- 支持集成阿里云 QWen 大语言模型和百炼(Dashscope)模型服务。
- 提供高级别的 AI Agent 抽象,如 ChatClient,简化聊天交互的开发。
- 支持多种 AI 模型类型,包括文本聊天、文本到图像生成、音频转录和文本到语音合成。
- 提供同步和流式 API 调用选项。
- 支持将 AI 模型的输出映射到 Java POJO 对象。
- 为不同的向量数据库提供了可移植的 API 接口。
- 支持函数调用(Function Calling)能力,使 AI 模型能够与外部工具交互。
- 提供 Spring Boot 自动配置和 Starter 模块,简化集成过程。
- 支持 RAG(检索增强生成)流程,包括文档读取、文本分割、向量嵌入、向量存储和检索器。
- 支持通过 ChatMemory 实现会话记忆功能。
技术栈/依赖: 项目基于 Java 17 及以上版本,并依赖于 Spring Boot 3.x。核心技术包括 Spring AI 框架,并集成了阿里云的 QWen 和 Dashscope 模型服务。未来的发展计划中提到了对更多向量数据库的支持。
安装与配置指南概述: 入门非常简单,只需两步:
- 在项目中添加
spring-ai-alibaba-starter
Maven 依赖。需要注意,由于 Spring AI 相关包尚未发布到中央仓库,需要额外配置 Spring Milestones Maven 仓库。如果本地 Maven settings.xml 文件中的 mirrorOf 配置包含通配符 *,需要进行相应的修改以排除spring-milestones
仓库。 - 在 Spring Boot 应用中注入
ChatClient
Bean 即可开始使用。
基本使用方法概述: 通过注入 ChatClient.Builder
并构建 ChatClient
实例,可以使用其 prompt().user(input).call().content()
方法发起聊天请求。
代码示例/命令示例: 以下是一个简单的 Spring Boot Controller 示例,展示了如何使用 ChatClient
处理用户输入并返回聊天回应:
@RestController
public class ChatController {
private final ChatClient chatClient;
public ChatController(ChatClient.Builder builder) {
this.chatClient = builder.build();
}
@GetMapping("/chat")
public String chat(String input) {
return this.chatClient.prompt()
.user(input)
.call()
.content();
}
}
适用场景/目标用户: 该项目主要面向希望在 Java 应用中集成大语言模型和构建 Agentic AI 能力的开发者。典型的适用场景包括开发智能客服、内容生成应用、基于文档问答(RAG)、多模态应用等。
项目状态与许可证: 项目正在积极开发中,最新版本为 v1.0.0-M6.1。项目采用 Apache-2.0 开源许可证。
独特的优势或创新点: Spring AI Alibaba 的主要优势在于其与 Spring 生态系统的紧密集成,以及对阿里云 QWen 和 Dashscope 模型服务的原生支持。它提供了 Agentic AI 框架的能力,简化了复杂 AI 应用的开发流程,包括函数调用和 RAG 等常用模式的支持。项目未来的发展计划还涵盖了 Prompt 模板管理、事件驱动 AI 应用、更多向量数据库支持、函数部署、可观测性以及 AI 代理等更广泛的功能,旨在成为一个端到端的 AI 原生 Java 应用开发平台。
项目统计与信息
- 作者: alibaba
- 主要语言: Java
- Stars: 2891 ⭐
- Forks: 569 🍴
- 本周期新增 Stars: 138 ⭐
要了解更多关于 alibaba / spring-ai-alibaba 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
mlabonne / llm-course
这是一个关于学习大型语言模型的综合性资源,通过路线图、示例和文章,覆盖了从基础理论到实际构建和部署应用的科学与工程知识。
项目介绍
这是一个关于大型语言模型 (LLM) 的综合性学习资源,旨在帮助学习者入门并深入理解 LLMs 的科学与工程。该项目通过提供详细的学习路线图、Colab Notebooks 示例以及相关文章,覆盖了从基础知识到高级议题的方方面面。
项目主要分为三个部分:
- LLM 基础 (LLM Fundamentals): 这部分是可选的,为学习者提供必要的数学、Python 编程以及神经网络的基础知识,为后续深入学习铺平道路。内容涵盖线性代数、微积分、概率统计、Python 数据科学库使用、数据预处理以及神经网络的构建和训练等。
- LLM 科学家 (The LLM Scientist): 专注于利用最新技术构建高性能 LLMs。这部分深入探讨 LLM 架构(特别是 Transformer 模型),模型的预训练(数据准备、分布式训练、优化与监控),后训练数据集(合成数据生成、数据增强与过滤),监督微调 (SFT) 技术(LoRA, QLoRA, 分布式训练),偏好对齐(DPO, GRPO, PPO)以及 LLM 评估(自动化基准测试、人工评估、模型评估)。此外,还介绍了模型量化以降低计算和内存成本,以及模型合并、多模态模型、可解释性等前沿趋势。
- LLM 工程师 (The LLM Engineer): 侧重于设计和部署基于 LLM 的实际应用。这部分指导学习者如何在各种环境(API、本地、服务器、边缘设备)中运行 LLMs,构建向量存储用于检索增强生成 (RAG),实现 RAG 管道及其高级应用(结合结构化数据、使用外部工具),理解和构建自主 AI Agent,优化 LLM 推理性能(Flash Attention, KV Cache, 推测解码),以及确保 LLM 应用的安全性(防范提示攻击、后门等)。
该资源提供丰富的 Colab Notebooks,方便学习者进行实践操作,涵盖了微调 Llama 3.1, Mistral-7b 等模型、使用 Axolotl 进行微调、进行不同格式的模型量化 (GGUF, GPTQ, EXL2)、使用 MergeKit 合并模型等具体步骤。同时,提供了大量外部学习资源链接(文章、视频、课程文档等)。
项目的目标用户是对 LLMs 感兴趣、希望系统学习其原理并实践应用的开发者、数据科学家和研究人员。通过其结构化的路线图和配套资源,学习者可以逐步掌握构建和部署 LLM 应用所需的核心技能。项目采用 Apache-2.0 许可证。
项目统计与信息
- 作者: mlabonne
- 主要语言: Jupyter Notebook
- Stars: 50644 ⭐
- Forks: 5449 🍴
- 本周期新增 Stars: 318 ⭐
要了解更多关于 mlabonne / llm-course 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
microsoft / BitNet
这是一份关于微软开源的 BitNet 1-bit LLM 推理框架的介绍,重点在于其在 CPU 上高效运行 BitNet b1.58 等模型,显著提升速度并降低能耗,使得大型 1-bit 模型在本地设备上部署成为可能。
项目介绍
BitNet 是微软开源的官方 1-bit LLMs(如 BitNet b1.58)推理框架。该项目致力于在 CPU 上实现 1.58-bit 模型的高效且无损推理,并计划在后续支持 NPU 和 GPU。
核心功能和特性包括:
- 针对 1-bit LLMs 优化的推理内核,目前专注于 CPU 平台。
- 实现了在 ARM 和 x86 CPU 上的显著推理加速和能耗降低。具体而言,在 ARM CPU 上,速度可提升 1.37x 到 5.07x,能耗降低 55.4% 到 70.0%;在 x86 CPU 上,速度可提升 2.37x 到 6.17x,能耗降低 71.9% 到 82.2%。
- 理论上使得在单台 CPU 上运行 100B 规模的 BitNet b1.58 模型成为可能,且生成速度可达到人类阅读 수준 (每秒 5-7 tokens)。
- 支持运行官方发布的 BitNet b1.58-2B-4T 模型以及 Hugging Face 上其他现有的 1-bit LLMs 模型,例如 bitnet_b1_58-large (0.7B)、bitnet_b1_58-3B (3.3B)、Llama3-8B-1.58-100B-tokens (8.0B) 和 Falcon3 Family 系列模型 (Falcon3 1B-10B 1.58bit)。
- 提供了端到端推理基准测试脚本,可用于评估模型在特定硬件上的性能。
技术栈/依赖:
- 该项目基于 llama.cpp 框架构建,并集成了 T-MAC 中开创性的查找表方法来构建内核。
- 主要编程语言包括 C++ 和 Python。
- 依赖于特定的软件环境,包括 Python >= 3.9, CMake >= 3.22 和 Clang >= 18。
- 推荐使用 Conda 环境进行依赖管理和构建。
安装与配置指南概述:
- 克隆项目仓库时需要使用
--recursive
选项以包含子模块。 - 使用
pip install -r requirements.txt
安装 Python 依赖。 - 构建项目需要运行
setup_env.py
脚本,指定模型目录和量化类型(目前支持 i2_s 和 tl1)。 - 对于 Windows 用户,需要确保在 Visual Studio 的开发者命令提示符或 PowerShell 中执行构建命令,并正确配置 Clang 和 Visual Studio 工具链。
基本使用方法概述:
- 使用
run_inference.py
脚本进行模型推理。 - 通过命令行参数指定模型路径 (
-m
)、生成令牌数 (-n
)、输入提示 (-p
)、使用的线程数 (-t
)、上下文大小 (-c
) 和温度参数 (-temp
)。 - 支持对话模式 (
-cnv
),此时-p
指定的提示将作为系统提示。 - 提供了用于运行 llama.cpp 内置服务器的
run_inference_server.py
脚本。
适用场景/目标用户:
- 主要面向希望在资源受限的设备(特别是 CPU)上运行大型语言模型的开发者和研究人员。
- 特别适合需要在本地设备上部署 1-bit LLMs 并追求高性能和低能耗的应用场景,例如边缘计算、移动设备或低成本服务器。
项目状态与许可证:
- 项目状态处于积极开发中。
- 项目遵循 MIT 许可证。
独特的优势:
- 作为 1-bit LLMs 的官方推理框架,提供了针对性的优化内核,实现了显著的性能提升和能耗降低,突破了在传统硬件上运行大型语言模型的限制。
项目统计与信息
- 作者: microsoft
- 主要语言: C++
- Stars: 19055 ⭐
- Forks: 1401 🍴
- 本周期新增 Stars: 428 ⭐
要了解更多关于 microsoft / BitNet 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
Lightricks / ComfyUI-LTXVideo
ComfyUI-LTXVideo 是一套 ComfyUI 自定义节点,方便用户利用 LTXV 系列模型高效生成和编辑高质量电影级视频,支持多种模型版本、潜在上采样、帧/序列条件生成等高级功能。
项目介绍
该项目名为 ComfyUI-LTXVideo,是专为 ComfyUI 设计的一系列自定义节点集合,旨在为使用 LTXV 模型提供便利工具。LTXV 模型的核心代码已集成到 ComfyUI 主体中,而此项目提供了额外的支持节点和工作流示例。
项目的主要功能和特性包括:
- 提供对 LTXV 模型(包括 13B、13B 量化和 2B 等版本)的支持,这些模型专注于生成高质量、高速度的电影级视频。
- 特别支持 LTXV 13B 量化版本,该版本优化了内存需求并提高了推理速度,适用于消费级 GPU。
- 引入 Latent Upscaling Models,允许在不进行编码/解码的情况下对潜在张量进行多尺度推理,显著提升了生成视频的质量和效率。包括空间和时间上采样模型。
- 持续更新模型版本,不断提高生成质量、减少伪影、支持更高分辨率和更长序列。
- 支持帧条件生成(在给定帧之间进行插值)和序列条件生成(从给定视频序列进行运动插值,实现视频的延长或编辑)。
- 集成了 Prompt Enhancer 节点,帮助用户生成优化后的提示词以获得最佳模型效果。
- 集成了 LTXTricks 中的代码,提供了 Inversion 功能的相关工作流,例如 Flow Edit 和 RF Edit。
- 修复了使用原生 CLIP Loader 可能导致短负面提示产生伪影的 bug。
- 支持 STG(Spatial-Temporal Guidance)并在 STGGuiderAdvanced 节点中实现分步应用 CFG 和 STG 参数以优化质量。
- 加入了图像降级系统以提升运动生成效果。
- 支持额外的初始潜在输入,用于高分辨率生成的潜在链接。
- 在图生视频工作流中加入了图像字幕功能。
技术栈/依赖:
- 基于 ComfyUI 平台。
- 使用 LTXV 系列视频生成模型及其量化版本和上采样模型。
- 依赖 LTXVideo-Q8-Kernels 包来运行量化模型。
- 推荐安装 ComfyUI-Manager 以简化安装过程。
- 需要额外的自定义节点(如 ComfyUI-VideoHelperSuite)来运行示例工作流。
- 需要安装 T5 系列文本编码器(如 google_t5-v1_1-xxl_encoderonly)。
安装过程:
- 通过 ComfyUI-Manager 直接搜索并安装
ComfyUI-LTXVideo
。 - 也可以手动将项目克隆到 ComfyUI 的
custom-nodes
文件夹,并安装requirements.txt
中列出的 Python 依赖。 - 需要下载 LTXV 模型文件并放置到相应的模型文件夹(如
models/checkpoints
),上采样模型放置到models/upscale_models
。
基本使用方法:
- 安装节点和模型后,可以在 ComfyUI 界面中使用这些自定义节点构建工作流。
- 项目提供了多种预设的示例工作流文件(
.json
格式),用户可以直接加载并修改使用,涵盖了图生视频、带关键帧图生视频、延长视频、量化模型生成以及 Flow Edit、RF Edit 等高级编辑场景。
适用场景/目标用户:
- 主要面向需要利用 ComfyUI 平台进行高质量视频生成和编辑的创意工作者、研究人员和开发者。
- 特别适合对视频生成的速度和质量有较高要求的用户,以及希望利用潜在空间上采样技术和精细控制生成过程的用户。
项目状态和许可证:
- 项目处于持续更新中,不断发布新的模型版本和功能改进。
- 项目采用 Apache-2.0 许可证。
项目统计与信息
- 作者: Lightricks
- 主要语言: Python
- Stars: 1726 ⭐
- Forks: 139 🍴
- 本周期新增 Stars: 107 ⭐
要了解更多关于 Lightricks / ComfyUI-LTXVideo 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
comet-ml / opik
Opik是一个开源平台,用于全面评估、测试和监控LLM应用、RAG系统和代理工作流,从开发阶段的追踪与评估到生产环境的监控,帮助提升LLM系统的效率和成本。
项目介绍
Opik 是一个开源平台,用于评估、测试和监控大型语言模型 (LLM) 应用、检索增强生成 (RAG) 系统和代理工作流。由 Comet 构建,Opik 旨在通过全面的追踪、自动化评估和生产级仪表盘来改进 LLM 系统的运行效率和成本。
Opik 主要功能和特性包括:
- 开发阶段支持:
- 追踪: 记录开发和生产中的所有 LLM 调用和调用链,方便问题排查。提供快速入门指南和多种集成方案。
- 标注: 通过 Python SDK 或 UI 为 LLM 调用记录反馈分数,以进行人工评估或质量控制。
- Playground: 提供一个实验环境,用户可以在其中尝试不同的提示词和模型以进行 Prompt 工程。
- 评估流程自动化:
- 数据集与实验: 管理测试用例并运行实验,量化不同 LLM 版本或配置的性能。
- 基于 LLM 的评估指标: 提供由 LLM 作为评估者的指标,用于检测幻觉、内容审查以及 RAG 系统的评估( Answer Relevance, Context Precision 等)。
- 持续集成/持续部署 (CI/CD) 集成: 支持将评估流程集成到 CI/CD 管线中,例如通过 PyTest 集成。
- 生产环境监控:
- 生产追踪记录: 设计用于处理高吞吐量的追踪数据,即使是小型部署也能每天记录数千万条追踪信息,便于监控生产应用的性能。
- 监控仪表盘: 提供可视化的仪表盘,展示反馈分数、追踪数量和 token 使用量随时间的变化,帮助快速发现问题。
- 在线评估指标: 支持对生产中的追踪数据进行在线 LLM 评估指标计算,及时发现生产应用出现的问题。
技术栈/依赖:
项目主要使用 Python 和 TypeScript 开发。 支持与多种 LLM 相关的库和平台进行集成,包括:
- OpenAI
- LiteLLM (通过 OpenAI 格式调用多种 LLM 模型)
- LangChain
- Haystack
- Anthropic
- Bedrock
- CrewAI
- DeepSeek
- DSPy
- Gemini
- Groq
- Guardrails
- Instructor
- LangGraph
- LlamaIndex
- Ollama
- Predibase
- Pydantic AI
- Ragas
- watsonx
安装与配置概述:
Opik 可作为完全开源的本地安装版本或使用 Comet.com 的托管解决方案。最简单的入门方式是注册一个免费的 Comet 账户。对于本地自托管,需要克隆 Opik 仓库并通过 Docker Compose 启动平台。安装 Python SDK 后,使用 opik configure
命令进行配置,可以配置为连接本地服务或 Comet 云平台。
基本使用方法概述:
安装并配置 SDK 后,可以使用对应的集成模块自动记录与主流 LLM 框架(如 OpenAI, LangChain, LlamaIndex, Ollama 等)的交互追踪。对于未集成框架,可以使用 @opik.track
装饰器手动记录函数调用追踪。此外,SDK 内置了基于 LLM 的评估指标,可以通过简单的 Python 代码调用其 score
方法对 LLM 的输入、输出和上下文进行评估。
代码示例/命令示例:
- 安装 SDK:
pip install opik
- 配置 SDK:
opik configure
- 使用
track
装饰器记录追踪:
import opik
opik.configure(use_local=True) # Run locally
@opik.track
def my_llm_function(user_question: str) -> str:
# Your LLM code here
return "Hello"
- 使用 LLM 作为评估指标:
from opik.evaluation.metrics import Hallucination
metric = Hallucination()
score = metric.score(
input="What is the capital of France?",
output="Paris",
context=["France is a country in Europe."]
)
print(score)
- 本地启动平台 (Linux/Mac):
git clone https://github.com/comet-ml/opik.git && cd opik && ./opik.sh
适用场景/目标用户:
该项目主要面向开发 LLM 应用、RAG 系统和代理(agentic)工作流的技术人员和开发者。它适用于开发、测试和生产监控的各个阶段,帮助用户调试、量化评估模型性能以及持续监控生产系统的表现。
项目状态与许可证:
项目正在积极开发中,频繁更新。采用 Apache-2.0 许可证。
Opik 作为一个开源的 LLM 评估框架,其核心优势在于提供了一站式的解决方案,涵盖了 LLM 应用从开发到生产全生命周期的可观测性、评估和监控需求,并支持广泛的主流 LLM 库和平台集成。
项目统计与信息
- 作者: comet-ml
- 主要语言: Python
- Stars: 7888 ⭐
- Forks: 533 🍴
- 本周期新增 Stars: 258 ⭐
要了解更多关于 comet-ml / opik 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
aquasecurity / trivy
Trivy是一款功能全面的开源安全扫描工具,能够扫描容器镜像、文件系统、Git仓库等多种目标,查找漏洞、配置错误、敏感信息等安全问题,并可方便集成到开发流程中。
项目介绍
Trivy 是一个全面且多功能的安全性扫描工具,其核心定位在于帮助用户在软件开发生命周期的不同阶段发现各种安全问题。它通过扫描不同的“目标”来查找特定的“安全问题”。
Trivy 可以扫描的目标范围广泛,包括:
- 容器镜像 (Container Image)
- 文件系统 (Filesystem)
- 远程 Git 仓库 (Git Repository)
- 虚拟机镜像 (Virtual Machine Image)
- Kubernetes 集群
针对这些目标,Trivy 能够查找的安全问题包括:
- 操作系统软件包和使用的软件包依赖(生成 SBOM - 软件物料清单)
- 已知的安全漏洞 (CVEs)
- 基础设施即代码 (IaC) 的配置问题和错误配置
- 敏感信息和秘密信息泄露
- 软件许可证信息
该工具支持多种主流的编程语言、操作系统和平台,具有广泛的扫描覆盖能力。用户可以通过多种方式获取和安装 Trivy,例如使用 Homebrew 包管理器 (brew install trivy
),运行官方 Docker 镜像 (docker run aquasec/trivy
),或者直接下载最新的二进制文件。
Trivy 可以轻松地集成到现有的开发和部署流程中,例如提供了针对 GitHub Actions 的集成、Kubernetes Operator 以及 VS Code 编辑器插件等。其基本使用方法通常是通过命令行指定扫描目标类型和对象,并可选地指定需要启用的扫描器。
以下是几个典型的命令行使用示例:
- 扫描 Docker 镜像:
trivy image python:3.4-alpine
- 扫描文件系统,查找漏洞、秘密信息和配置错误:
trivy fs --scanners vuln,secret,misconfig myproject/
- 扫描 Kubernetes 集群并生成摘要报告:
trivy k8s --report summary cluster
Trivy 的发音类似于“trigger”中的“tri”加上“envy”中的“vy”。
该项目是 Aqua Security 的一个开源项目,遵循 Apache-2.0 许可证。对于希望获得更多安全管理能力的用户,Aqua Security 提供了商业产品 Aqua,它在 Trivy 的基础上提供了更增强的功能。Trivy 拥有活跃的社区,用户可以通过 GitHub Discussions 进行交流。
项目统计与信息
- 作者: aquasecurity
- 主要语言: Go
- Stars: 26476 ⭐
- Forks: 2541 🍴
- 本周期新增 Stars: 70 ⭐
要了解更多关于 aquasecurity / trivy 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
kamranahmedse / developer-roadmap
这份内容介绍了一个叫 developer-roadmap 的开源项目,它提供了各种开发者职业的学习路线图和教育资源,帮助开发者规划学习路径和提升技能。
项目介绍
这是一个名为 developer-roadmap
的开源项目,由社区驱动,旨在为开发者提供一系列交互式学习路线图、文章和其他教育资源,帮助他们在职业生涯中成长。
该项目的核心功能和价值在于提供结构化的学习路径,涵盖了软件开发领域的多个热门方向,包括但不限于:
- 前端开发(包含新手路线)
- 后端开发(包含新手路线)
- DevOps(包含新手路线)
- 全栈开发
- 特定技术栈(如 Git, GitHub, API Design, Python, JavaScript, TypeScript, C++, React, Vue, Angular, Node.js, PHP, GraphQL, Android, iOS, Flutter, Go, Rust, Java, Spring Boot, ASP.NET Core)
- 专业领域(如 Computer Science, Data Structures and Algorithms, AI and Data Scientist, AI Engineer, MLOps, Prompt Engineering, AI Red Teaming, AI Agents, Cloudflare, Linux, Terraform, PostgreSQL, SQL, Redis, Blockchain, Kubernetes, Cyber Security, MongoDB, UX Design, Docker)
- 职业路径(如 Data Analyst, Product Manager, Engineering Manager, QA, Software Architect, Game Developer, Server Side Game Developer, Technical Writer, DevRel Engineer)
- 软件工程实践(如 Software Design and Architecture)
这些路线图是交互式的,用户可以点击节点以获取更多关于特定主题的信息。除了学习路线图,项目还提供一系列最佳实践指南(如后端性能、前端性能、代码评审、API 安全、AWS 相关)以及用于检验知识的问答集(如 JavaScript, Node.js, React, 前后端通用问题)。
该项目基于社区贡献,鼓励用户参与到路线图内容的添加、修改、新路线图的创建以及在 Issues 中讨论想法。项目的开发环境基于 Node.js 생태계,可以使用 npm 或 pnpm 来安装依赖并运行应用进行本地开发。
项目的技术栈包括 Astro、TypeScript 和 JavaScript。它遵循特定的许可证,详细信息可在项目仓库中查阅。
总而言之,developer-roadmap
是一个为广大的开发者群体设计的宝贵资源,无论你是刚入行的新手,还是希望在特定领域深化的高级开发者,都可以从中找到适合自己的学习路径和提升资料。
项目统计与信息
- 作者: kamranahmedse
- 主要语言: TypeScript
- Stars: 320257 ⭐
- Forks: 41409 🍴
- 本周期新增 Stars: 596 ⭐
要了解更多关于 kamranahmedse / developer-roadmap 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
nvim-lua / kickstart.nvim
kickstart.nvim是一个极简的Neovim配置模板,提供清晰的Lua配置起点,适合想定制和学习Neovim的用户而非完整IDE。
项目介绍
kickstart.nvim 是一个用于启动个人 Neovim 配置的极简项目。它的设计理念是小巧、单文件且文档齐全,旨在为用户提供一个清晰的起点,帮助他们构建自己的 Neovim 环境,而不是作为一个完整的 Neovim 发行版。
该项目主要面向希望深度定制和理解 Neovim 配置的用户和开发者。它提供了一个基础框架,包含了常用的插件管理器 lazy.nvim 以及一些推荐的插件,如 LSP 客户端、Telescope 文件搜索工具等,以便用户在此基础上进行扩展和调整。
核心功能和特性包括:
- 基于 Lua 语言的 Neovim 配置。
- 使用 lazy.nvim 作为插件管理器,便于管理和懒加载插件。
- 预配置了一些基础但重要的插件,如实现代码补全、诊断和跳转的 Language Server Protocol (LSP) 集成。
- 集成了 Telescope 插件,提供强大的模糊查找功能,用于文件、缓冲区、命令等的快速搜索。
- 包含树形文件浏览器(如 neo-tree)的配置示例。
- 提供了一些基本的按键映射和界面优化配置。
- 整个配置包含在一个
init.lua
文件中,并提供了详细的注释,方便用户理解每一行代码的作用及其扩展方法。
技术栈和依赖:
- 主要使用 Lua 进行配置。
- 依赖 Neovim 的最新稳定版或夜间构建版。
- 需要一些外部工具和库,例如
git
,make
,unzip
, C 编译器 (gcc
),以及用于搜索的ripgrep
和fd-find
。 - 建议安装一个 Nerd Font 字体以获得更好的图标显示效果。
- 根据具体编程语言的需求,可能需要安装相应的语言开发环境(如
npm
for TypeScript,go
for Golang 等)。
安装与配置概述:
安装 kickstart.nvim 的主要步骤包括:
- 确保已安装最新版本的 Neovim。
- 安装必要的外部依赖工具,如 ripgrep, fd-find 等。提供了针对不同操作系统的安装指南(Windows, WSL, Linux)。
- 推荐 Fork 此项目,然后将你的 Fork 克隆到对应的 Neovim 配置目录下(Linux/MacOS 为
~/.config/nvim
,Windows 为%localappdata%\nvim
)。 - 启动 Neovim,lazy.nvim 会自动安装所需的插件。
基本使用方法概述:
项目提供了一个带有详细注释的 init.lua
文件,这是核心的配置和使用指南。首次启动 Neovim 后,插件会自动安装。用户可以通过阅读 init.lua
文件来了解默认的按键绑定、插件配置以及如何添加或修改配置。例如,Spacef
可能用于调用 Telescope 进行文件搜索,gD
用于查看类型定义等。用户需要在此基础上根据自己的需求修改和扩展配置。
该项目的许可证为 MIT License,允许自由使用、修改和分发。项目状态活跃,定期有贡献者更新和修复。
总的来说,kickstart.nvim 提供了一个结构清晰、易于理解和扩展的 Neovim 配置起点,特别适合那些想要从头开始构建自己的 Neovim 环境,并希望深入学习 Lua 配置的用户。它不是一个开箱即用的完整IDE,而是通往个性化 Neovim 配置世界的敲门砖。
项目统计与信息
- 作者: nvim-lua
- 主要语言: Lua
- Stars: 24565 ⭐
- Forks: 33566 🍴
- 本周期新增 Stars: 37 ⭐
要了解更多关于 nvim-lua / kickstart.nvim 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
Lightricks / LTX-Video
LTX-Video是Lightricks公司推出的基于DiT架构的视频生成模型,支持文本到视频、图像到视频等多种功能,以实现高质量视频的实时生成。
项目介绍
LTX-Video 是 Lightricks 公司推出的 Diffusion Transformer (DiT) 架构的视频生成模型,其核心优势在于能够实现高质量视频的实时生成。该模型经过大规模多样化视频数据集的训练,旨在生成逼真且内容丰富的视频,支持高达 1216×704 分辨率、30 FPS 帧率的视频生成。LTX-Video 的生成速度甚至快于观看视频本身所需的时间。
项目的主要功能和特性包括:
- 支持文本到视频(Text-to-Video)生成。
- 支持图像到视频(Image-to-Video)生成。
- 支持基于关键帧的动画生成。
- 支持视频扩展,包括向前和向后扩展。
- 支持视频到视频(Video-to-Video)转换。
- 支持以上功能的任意组合使用。
- 提供多种模型版本,包括更高质量的 13B 参数模型和针对更快推理速度优化的 2B 参数模型,以及经过蒸馏和量化的版本(如 FP8 量化),以减少显存占用和加快推理速度。
- 支持多尺度视频渲染的新管道,以提高生成速度和质量。
- 提升了对文本提示的遵循程度和物理理解能力。
- 改进了运动质量和细节表现。
- 支持随机推理,尤其在使用蒸馏模型时可提升视觉质量。
- 支持更高的分辨率和更多的帧数生成,输入需满足特定帧数和分辨率的要求。
- 支持使用图像和/或短视频片段进行多 조건生成。
- 提供自动提示词增强功能,通过语言模型改进短提示词。
- 提供在线演示、Fal.ai 和 Replicate 等平台上的便捷访问方式。
- 提供了本地运行的安装和推理指南。
- 提供了与 ComfyUI 和 Diffusers 等常用稳定扩散生态系统工具的集成支持,并推荐使用其官方 ComfyUI 工作流以获得最佳效果。
- 社区贡献丰富了项目功能,例如 ComfyUI-LTXTricks 插件增加了 RF-Inversion, RF-Edit, FlowEdit, I+V2V, STGuidance 等高级特性,LTX-VideoQ8 项目提供了 8-bit 量化版本以提升在 NVIDIA ADA GPU 上的性能,TeaCache 项目通过缓存机制加速推理。
在技术栈方面,LTX-Video 基于 DiT (Diffusion Transformer) 架构,并利用了 PyTorch 等深度学习框架。模型权重托管在 Hugging Face 模型库。代码库提供了 Python 推理脚本 inference.py
,并支持通过 Diffusers 库访问。社区也为此生态系统贡献了多种工具和集成。
安装过程涉及克隆 GitHub 仓库、创建 Python 虚拟环境并安装所需的依赖包。推理主要通过运行 inference.py
脚本进行,通过命令行参数指定生成类型(文本到视频、图像到视频、视频扩展等)、提示词、分辨率、帧数、种子等信息。建议的提示词编写技巧包括使用详细、按时间顺序描述动作和场景,包含具体的运动、外观、视角和环境细节,像电影摄影师一样思考,将所有信息写在一个流畅的段落中,并保持在 200 字以内。参数调节方面,提供了分辨率选择、种子固定、Guidance Scale 和推理步数的建议值。
LTX-Video 的目标用户主要是需要高效生成高质量视频的开发者、研究人员和创意工作者。其广泛的功能支持使其适用于文本描述生成视频、基于现有图像或视频片段进行创意拓展或风格转换等多种场景。
项目遵循 Apache-2.0 许可证。研究团队也发布了相关的技术报告(arXiv preprint ),并感谢了 DiT 和 PixArt-alpha 等相关开源项目的贡献。Lightricks 公司也借此项目开放了招聘渠道,寻找对 AI、计算机视觉和视频生成感兴趣的人才。
项目统计与信息
- 作者: Lightricks
- 主要语言: Python
- Stars: 5285 ⭐
- Forks: 416 🍴
- 本周期新增 Stars: 126 ⭐
要了解更多关于 Lightricks / LTX-Video 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。
pytorch / torchtitan
PyTorch torchtitan是一个专注于大规模生成式AI模型训练的原生代码库,提供多维并行技术、内存优化和丰富的工具,旨在加速Llama 3.1等大型模型的训练和创新。
项目介绍
PyTorch torchtitan 是一个专注于大规模生成式 AI 模型训练的 PyTorch 原生代码库。它提供了一个简洁的平台,用于快速实验和部署大规模训练任务。torchtitan 是 PyTorch 原生缩放技术的最小化纯净室实现,为开发者构建在其之上的自定义扩展提供了灵活的基础。该项目的目标是通过赋能研究人员和开发者探索新的模型架构和基础设施技术,从而加速生成式 AI 领域的创新。
项目的核心定位是作为 PyTorch 生态系统中一个易于理解、使用和扩展的平台,特别针对不同训练目的的需求。它强调在应用多维并行技术时对模型代码进行最小化改动,并致力于提供一个干净、最小化但包含基本可复用/可交换组件的代码库。
torchtitan 的主要功能和特性包括:
- 可组合的多维并行技术: 支持 FSDP2 (按参数分片)、Tensor Parallel (包括异步 TP)、Pipeline Parallel (实现零气泡特性) 和 Context Parallel,用于突破长序列训练的限制。
- 元设备初始化: 利用 PyTorch 的元设备功能进行模型初始化。
- 激活检查点: 支持选择性(按层或算子)和完全激活检查点,以节省内存。
- 分布式检查点: 提供高效的分布式检查点保存和加载功能(包括异步检查点),并且检查点与 torchtune 兼容,可直接用于微调。
- torch.compile 支持: 集成 torch.compile 以提升训练性能。
- Float8 支持: 支持 Float8 技术,进一步优化内存和计算效率。
- DDP 和 HSDP: 标准的分布式数据并行和混合分片数据并行。
- TorchFT 集成: 与 TorchFT (PyTorch Fine-Tuning) 项目集成。
- 可检查点的数据加载: 支持可恢复进度的数据加载,预配置 C4 数据集(1.44 亿条目),并支持加载自定义数据集。
- 灵活的学习率调度器: 提供热启动-稳定-衰减的学习率调度策略。
- 全面的训练指标记录: 通过 Tensorboard 或 Weights & Biases 记录并显示损失、GPU 内存、吞吐量(tokens/秒)、TFLOPs 和 MFU 等指标。
- 丰富的调试工具: 内置 CPU/GPU 分析、内存分析、Flight Recorder 等调试工具。
- 便捷的配置管理: 所有选项可通过 toml 文件轻松配置。
- 实用的辅助脚本: 提供下载 Hugging Face 分词器、转换 Llama 3 原始检查点、估算 FSDP/HSDP 内存使用以及进行分布式推理等脚本。
该项目主要面向需要在大规模计算集群上训练大型生成式 AI 模型的开发者和研究人员,特别是那些使用 PyTorch 生态的用户。它通过提供一系列成熟的分布式训练技术和工具,简化了大规模训练的复杂性,使用户能够更专注于模型本身的实验和创新。
目前,torchtitan 处于预发布状态,正在积极开发中。其主要重点是 showcasing PyTorch 最新的分布式训练特性,并通过预训练 Llama 3.1 系列(8B, 70B, 405B)模型来展示其能力。项目也在 experiments
文件夹中探索 MoE 架构的 LLMs、多模态 LLMs 和 Diffusion 模型等其他类型的生成模型。项目使用 BSD 3 许可证发布。
项目统计与信息
- 作者: pytorch
- 主要语言: Python
- Stars: 3747 ⭐
- Forks: 360 🍴
- 本周期新增 Stars: 8 ⭐
要了解更多关于 pytorch / torchtitan 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库。