目录

Github Daily Trending

发布于

本次精选热门项目聚焦于人工智能、开发工具与效率提升。亮点包括利用AI自动化生成短视频的MoneyPrinterTurbo,将自然语言转化为Kubernetes命令的kubectl-ai,以及NVIDIA用于构建生成式AI模型的NeMo框架。同时,我们也看到了对开发者提效的工具,如集成了AI能力的Void开源代码编辑器,Neovim包管理器mason.nvim,和Vue 3 UI库Element Plus。此外,还有高性能桌面UI组件库gpui-component、实时视频生成项目LTX-Video及其ComfyUI节点ComfyUI-LTXVideo,以及游戏后端服务Nakama和Ruan YiFeng的科技爱好者周刊。这些项目共同展现了开源社区在AI赋能开发、提升效率和基础技术领域的活跃探索与创新实力。

longbridge / gpui-component

gpui-component 是一个 Rust 语言的开源项目,提供基于 GPUI 框架构建的高性能、现代风格的跨平台桌面应用 UI 组件库,包含 40 多个组件,支持灵活布局、主题定制和高性能数据展示。

项目介绍

GPUI Component 项目为开发者提供了一系列丰富的 UI 组件,旨在帮助使用 GPUI 框架轻松构建出色的跨平台桌面应用程序。该项目基于 Rust 语言,专注于为开发者提供构建复杂、高性能桌面应用所需的 UI 元素。

这个组件库具有以下核心特性:

  • 组件全面: 提供了超过 40 个功能丰富的跨平台桌面 UI 组件。
  • 设计风格现代原生: 设计灵感来源于 macOS 和 Windows 的原生控件,并融合了 shadcn/ui 的现代设计理念,提供美观且符合用户习惯的界面。
  • 易于开发: 组件采用无状态的 RenderOnce 模式,简化了组件的使用和管理。
  • 高度定制: 内置 ThemeThemeColor 支持,方便实现多主题切换和灵活的颜色配置。
  • 尺寸多样: 支持 xs, sm, md, lg 等多种组件尺寸,满足不同布局需求。
  • 强大布局与性能优化: 支持 Dock 布局实现面板的自由编排和调整大小,以及自由排列(Tiles)布局;针对大量数据场景,提供了高性能的虚拟化 Table 和 List 组件,确保流畅滚动和渲染。
  • 内容渲染支持: 原 natively 支持 Markdown 和简单 HTML 内容的显示。
  • WebView 组件: 提供一个实验性的 WebView 组件(基于 Wry),可以通过特性标志启用。

项目的技术栈主要基于 Rust 语言(代码占比达 99.7%),其核心运行于 GPUI 框架之上。为了支持特定的额外功能(如 WebView),gpui-component 依赖于 GPUI 框架的一个特定 Git 分支。可选的 WebView 功能依赖于 Wry 库。设计和图标方面,项目参考了 shadcn/ui 的设计风格,并使用了 Lucide icons。开发环境支持 Nix/Flake 配置。

目前项目仍处于活跃开发阶段,依赖需要通过 Git 地址添加到项目的 Cargo.toml 文件中。开发者可以通过查看 storyexamples 目录下的示例代码来了解如何使用这些组件以及运行项目。

gpui-component 非常适合希望利用 Rust 构建高性能、美观且复杂的跨平台桌面应用的开发者。特别适用于需要灵活布局、大量数据展示、主题定制以及可能集成 Web 内容的应用程序场景,例如专业的交易客户端(如 Longbridge Pro 展示的应用)等。项目采用 Apache-2.0 许可证开源。

项目统计与信息

  • 作者: longbridge
  • 主要语言: Rust
  • Stars: 1687 ⭐
  • Forks: 88🍴
  • 本周期新增 Stars: 252

要了解更多关于 longbridge / gpui-component 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


harry0703 / MoneyPrinterTurbo

MoneyPrinterTurbo 是一个开源项目,利用AI自动生成包括文案、素材、配音和字幕在内的高清短视频,支持多种平台和语言,极大简化了视频创作流程。

项目介绍

MoneyPrinterTurbo 是一个开源项目,旨在利用AI大模型能力,实现短视频的一键全自动生成。用户仅需提供一个视频主题或关键词,项目便能自动生成视频文案、匹配视频素材、合成语音、添加字幕及背景音乐,最终输出一个高清晰度的短视频。

该项目的核心亮点在于其端到端自动化流程和灵活的技术栈支持。它不仅提供了清晰易维护的MVC架构,还支持Web界面和API两种交互方式,满足不同用户需求。

主要功能特性包括:

  • 支持AI自动生成视频文案,同时也允许用户自定义文案。
  • 提供多种高清视频尺寸输出,包括竖屏 9:16 (1080x1920) 和横屏 16:9 (1920x1080)。
  • 支持批量视频生成功能,提高内容生产效率。
  • 允许用户调节视频片段时长,控制素材切换频率。
  • 全面支持中文和英文视频文案处理。
  • 提供多种语音合成选项,部分声音支持实时试听,并引入Azure等更真实的语音合成服务(需配置API Key)。
  • 具备字幕生成能力,支持多种字幕样式自定义(字体、位置、颜色、大小、描边),并提供edge(速度快)和whisper(质量更可靠,需下载模型)两种生成方式。
  • 支持背景音乐,可选择随机播放或指定音乐文件,并调节音量。
  • 视频素材来源丰富,提供高清无版权素材,同时支持用户导入本地素材。

在技术栈方面,项目主要基于 Python 和 TypeScript 开发,利用 FFmpeg 和 ImageMagick 进行视频处理。它集成了对多种主流AI大模型提供商的支持,包括 OpenAI, Moonshot, Azure, gpt4free, one-api, 通义千问, Google Gemini, Ollama, DeepSeek, 文心一言等。项目特别推荐中国用户使用DeepSeek或Moonshot,因其在国内可直接访问且提供免费额度。

项目的部署和使用方式多样:

  • 支持Docker一键快速部署,通过运行 docker-compose up 命令即可启动Web界面和API服务。
  • 支持手动部署,需要安装Pdm进行依赖管理,并正确配置ImageMagick等前置环境。
  • 手动启动Web界面通过运行 webui.bat (Windows) 或 sh webui.sh (MacOS/Linux) 脚本。
  • 手动启动API服务通过 python main.py 命令。
  • 核心配置集中在 config.toml 文件中,如API Key设置和字幕生成方式,大部分配置也可在Web界面中完成。

该项目非常适合内容创作者、网络营销人员以及希望通过自动化工具快速生成短视频的用户,可应用于知识分享、内容搬运等多种场景,尤其为针对TikTok等短视频平台的内容生产提供了便利。

项目采用MIT许可证,允许自由使用、修改和分发。

项目统计与信息

  • 作者: harry0703
  • 主要语言: Python
  • Stars: 28100 ⭐
  • Forks: 4138🍴
  • 本周期新增 Stars: 428

要了解更多关于 harry0703 / MoneyPrinterTurbo 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


GoogleCloudPlatform / kubectl-ai

kubectl-ai 是一个开源的 AI 驱动 Kubernetes 助手,能将自然语言转化为 kubectl 命令,支持多种 LLM 后端,简化 Kubernetes 集群管理和命令行操作。

项目介绍

kubectl-ai 是一个由 Google Cloud Platform 开发的、基于 AI 的 Kubernetes 助手。它旨在将用户的自然语言意图转化为精确的 Kubernetes 操作,从而让 Kubernetes 集群管理更加易于访问和高效。项目遵循 Apache-2.0 许可证。

核心功能包括:

  • 将用户用自然语言描述的任务(如“展示 default namespace 下的所有 pod”、“创建一个 deployment”)转换为执行相应的 kubectl 命令。
  • 支持多种大型语言模型 (LLM) 提供商作为后端,包括 Google 的 Gemini、X.AI 的 Grok、Azure OpenAI、OpenAI 的模型(如 GPT-4.1),以及 Ollama 和 llama.cpp 等本地运行的模型。
  • 提供交互式聊天模式,允许用户在命令行中与 AI 进行多轮对话,同时保持上下文信息。
  • 支持非交互模式,通过命令行参数或标准输入(如管道或文件重定向)接收查询。
  • 可无缝集成作为 kubectl 插件使用。

技术栈主要使用 Go 语言开发,依赖于配置的 LLM 提供商。通常需要设置相关的 API 密钥或终端点环境变量进行配置。

安装方式多样,包括针对 Linux 和 MacOS 的 curl 脚本快速安装,手动下载适用于不同操作系统的二进制文件并将其移动到系统的 PATH 目录,以及通过 Krew(Kubernetes 插件管理器)进行安装。

基本使用方式灵活,可以直接在命令行中提供查询,例如 kubectl-ai "您的查询",或者运行 kubectl-ai 命令进入交互模式。示例如下:

kubectl-ai "展示 default namespace 下的所有 pod"
kubectl-ai --provider=openai --model=gpt-4.1 "缩放 nginx deployment 到 5 个副本"

此外,项目还提供了一些辅助命令,如 model(显示当前模型)、models(列出可用模型)、version(显示版本)、reset(清除对话上下文)和 exit/quit(退出交互模式)。

本项目适用于需要简化与 Kubernetes 集群交互、提高命令行操作效率的开发者和运维人员。

这是一个开源项目,欢迎社区贡献。请注意,这不是 Google 的官方支持产品,也不符合 Google 开源软件漏洞奖励计划的条件。项目包含一个内部基准测试工具 k8s-bench,用于评估不同 LLM 模型在 Kubernetes 相关任务上的表现。

项目统计与信息

  • 作者: GoogleCloudPlatform
  • 主要语言: Go
  • Stars: 4336 ⭐
  • Forks: 296🍴
  • 本周期新增 Stars: 396

要了解更多关于 GoogleCloudPlatform / kubectl-ai 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


NVIDIA / NeMo

NVIDIA NeMo Framework 是一个开源的可扩展生成式 AI 框架,专为研究人员和开发者设计,用于高效创建、定制和部署大型语言模型、多模态和语音 AI 模型等。

项目介绍

NVIDIA NeMo Framework 是一个可扩展的生成式 AI 框架,专为研究人员和 PyTorch 开发者设计,专注于大型语言模型 (LLMs)、多模态模型 (MMs)、自动语音识别 (ASR) 和文本到语音 (TTS) 等领域,也包含计算机视觉 (CV) 功能。该框架旨在通过利用现有代码和预训练模型检查点,帮助用户高效地创建、定制和部署新的生成式 AI 模型。

NeMo Framework 的核心是实现 AI 模型开发各个阶段的简化和加速。它提供了一套全面的工具和模块,支持:

  • 模型训练与微调: NeMo 支持将训练扩展到数千个 GPU,并集成了先进的分布式训练技术,如 Tensor Parallelism (TP)、Pipeline Parallelism (PP)、Fully Sharded Data Parallelism (FSDP)、Mixture-of-Experts (MoE) 以及使用 BFloat16 和 FP8 的混合精度训练。大型 Transformer 模型训练利用 NVIDIA Transformer Engine 和 Megatron Core 进行优化。框架还支持多种参数高效微调 (PEFT) 技术,包括 LoRA、P-Tuning、Adapters 和 IA3,以及监督微调 (SFT)。
  • 模型对齐: 支持 SteerLM、直接偏好优化 (DPO) 和基于人类反馈的强化学习 (RLHF) 等最先进的模型对齐方法,特别是通过 NVIDIA NeMo Aligner。
  • 模型部署与优化: LLMs 和 MMs 可以通过 NVIDIA NeMo Microservices 进行部署和优化。语音 AI 模型(ASR 和 TTS)可以通过 NVIDIA Riva 针对推理进行优化并用于生产环境。
  • 数据处理: NeMo Curator 库提供了优化的视频处理和字幕功能,用于处理视频数据集,特别是在 Cosmos 世界模型开发中。

框架覆盖的关键 AI 领域包括:

  • 大型语言模型 (LLMs)
  • 多模态模型 (MMs)
  • 自动语音识别 (ASR)
  • 文本到语音 (TTS)
  • 计算机视觉 (CV)

最新版本的 NeMo 2.0 在 NeMo 1.0 的基础上进行了重大改进,提升了灵活性、性能和可扩展性:

  • 从 YAML 文件迁移到 Python 配置,增加了编程灵活性。
  • 采用 PyTorch Lightning 的模块化抽象,简化了模型组件的修改和实验。
  • 通过 NeMo-Run 工具无缝扩展大规模实验,支持跨计算环境的管理。
  • 重点支持 LLM 和 VLM (Vision Language Model) collections。

NeMo Framework 支持多种最先进的模型架构,包括 Meta 的 Llama 3.1 系列 LLM、NVIDIA 的 Nemotron 340B 模型、混合状态空间模型 (SSMs),以及 Google DeepMind 的 Griffin 架构。在 Speech AI 领域,NeMo 发布了 Parakeet 系列 ASR 模型,包括 Parakeet-TDT,以及支持多语言转录和翻译的 Canary 模型。框架还支持 Cosmos 世界基础模型,用于物理 AI 系统,包括扩散模型和自回归模型。

该框架依赖于 Python 3.10 或更高版本和 PyTorch 2.5 或更高版本。进行模型训练需要 NVIDIA GPU。安装方式灵活多样,可以选择通过 Conda/Pip 安装在本地环境(推荐用于 ASR 和 TTS 领域,其他领域功能有限,适合探索),或者使用 NGC PyTorch 容器进行源码安装以获得完整功能和优化,或直接使用预构建的 NGC NeMo 容器以获得最高性能。

NeMo Framework 以开源的 Apache-2.0 许可证发布。使用 NGC 容器时,还需遵守 NVIDIA AI PRODUCT AGREEMENT 的条款。项目状态活跃,并持续进行开发和优化。目标用户主要是希望在 NVIDIA GPU 硬件上进行生成式 AI 模型研究、开发和部署的开发者和研究人员,涵盖从独立开发者到大型企业和云服务提供商的各种应用场景,例如将 AI 模型集成到机器人、自动驾驶系统、企业级图像生成以及构建大型基础模型服务。

项目统计与信息

  • 作者: NVIDIA
  • 主要语言: Python
  • Stars: 14133 ⭐
  • Forks: 2830🍴
  • 本周期新增 Stars: 192

要了解更多关于 NVIDIA / NeMo 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


voideditor / void

Void 项目是一个开源的VS Code分叉代码编辑器,重点在于深度集成AI能力,支持本地运行多种模型,强调数据隐私,旨在为开发者提供AI赋能的开源编码工具

项目介绍

Void 项目是一个开源的代码编辑器项目,旨在作为 Cursor 的开源替代品。它基于广受欢迎的 VS Code 项目分叉而来,专注于将 AI 能力深度集成到开发工作流程中。

该项目的 핵심定位 是为开发者提供一个能够在其代码库上 활용 AI 代理 的工具。其核心功能包括允许用户对代码变更进行 里程碑式标记和可视化(checkpoint and visualize changes),以及支持连接和 本地运行任何 AI 模型 或服务提供商。特别值得关注的是,Void 在与 AI 提供商交互时,会 直接发送消息且不保留用户数据,强调 数据隐私保护。

技术栈方面,Void 是一个基于 VS Code 分叉的版本,主要使用 TypeScript 开发,辅以 CSS, JavaScript, Rust, HTML 等其他语言。它支持连接多种大型语言模型(LLM),根据项目信息,包括但不限于 OpenAI, Claude, 以及通用的 LLM 和 ChatGPT 模型。这种灵活性使得用户可以根据自己的需求和偏好选择不同的 AI 后端。

项目典型适用于需要 AI 辅助编码、代码分析和重构的开发者。对于那些寻求开源解决方案、希望对使用的 AI 模型有更多控制权(包括本地运行)以及关注代码隐私的用户而言,Void 是一个有吸引力的选择。

Void 项目目前处于积极开发阶段,已有 Beta 版本发布,并遵循 Apache-2.0 等开源许可证。贡献者可以在其提供的详细指南中找到参与项目开发的方式。

项目统计与信息

  • 作者: voideditor
  • 主要语言: TypeScript
  • Stars: 15179 ⭐
  • Forks: 888🍴
  • 本周期新增 Stars: 1889

要了解更多关于 voideditor / void 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


Byaidu / PDFMathTranslate

PDFMathTranslate是一个基于AI的PDF文档翻译工具,专注于保留科学论文等复杂排版的格式,支持多种翻译服务和使用方式,方便用户翻译并阅读外文技术文档。

项目介绍

一个基于 AI 的 PDF 文档全文翻译工具,旨在处理科学论文等包含复杂排版的文档,并在翻译过程中完整保留原始格式,包括公式、图表、表格、目录和注释等。该项目提供双语对照翻译输出,同时也支持生成单语翻译版本。

项目的核心功能和特性包括:

  • 格式保留翻译:不同于简单的文本翻译,该工具能够识别并保留 PDF 中的数学公式、图表、表格、目录结构和注释,确保翻译后的文档在排版上尽量贴近原文,尤其适用于科研和技术文档。
  • 多翻译服务支持:集成了多种主流的 AI 翻译服务,用户可以根据需求选择 Google Translate, DeepL, OpenAI (包括 Azure OpenAI), Ollama(支持本地部署大模型)、Xinference 本地模型,以及实验性的 BabelDOC 后端等。
  • 多样的使用方式:提供了命令行界面 (CLI)、图形用户界面 (GUI)、Docker镜像、以及针对特定应用(如 Zotero 文献管理软件)的插件,极大地便利了不同用户的访问和使用需求。还提供了 Windows 可执行文件版本,简化安装。
  • 灵活的翻译控制:支持按页进行部分文档翻译,允许指定源语言和目标语言,支持多线程处理以提高效率,可指定输出目录,甚至可以设置规则来排除特定内容不进行翻译。
  • 兼容性模式与高级配置:提供兼容性模式处理非标准 PDF/A 文档,支持跳过字体子集处理、忽略翻译缓存,以及通过配置文件进行更复杂的设置。
  • 二次开发接口:为开发者提供了 Python API 和 HTTP API,方便将翻译功能集成到其他应用或服务中。
  • 活跃开发与持续更新:项目处于积极维护状态,不断增加新的翻译服务支持和改进功能,例如对大型文档的新后端技术探索,并计划支持更多高级布局解析和集成更多如 Obsidian 等应用。

本项目技术栈主要基于 Python,并利用了 HuggingFace 上的 AI 模型(如 DocLayout-YOLO)进行文档结构解析。它依赖于一系列开源库,如 PyMuPDF 用于文档合并,Pdfminer.six 和 MinerU 用于文档解析和提取,Gradio PDF 用于 GUI 预览等。

该工具的典型适用场景是科研人员、工程师、学生等需要阅读大量外文技术文档、论文的用户。通过保留原始排版,用户可以更方便地对照原文理解内容,避免了重新排版带来的麻烦。

项目遵循 AGPL-3.0 开源许可证,现有多个在线演示服务可供用户免费体验其功能(计算资源有限)。此外,项目欢迎社区贡献,详细的贡献指南可在其 Wiki 中找到。

项目统计与信息

  • 作者: Byaidu
  • 主要语言: Python
  • Stars: 22982 ⭐
  • Forks: 1965🍴
  • 本周期新增 Stars: 137

要了解更多关于 Byaidu / PDFMathTranslate 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


ultralytics / ultralytics

Ultralytics YOLO11项目是一个强大的开源库,提供基于 terbaru YOLO 模型的计算机视觉解决方案,支持多种任务且易于使用,适合从研究到部署的广泛应用。

项目介绍

这是一个关于 Ultralytics YOLO 项目的详细摘要。Ultralytics 致力于提供先进的 YOLO 模型及其相关工具库,旨在为计算机视觉领域的多种任务提供快速、准确且易于使用的解决方案。项目基于多年来的计算机视觉与人工智能基础研究。

该项目的核心是一款强大的 Python 库,支持丰富的计算机视觉任务。

主要功能与特性包括:

  • 多种任务支持: 提供对象检测 (Object Detection)、实例分割 (Instance Segmentation)、图像分类 (Image Classification)、姿态估计 (Pose Estimation) 以及定向边界框检测 (Oriented Bounding Box, OBB) 等能力。
  • 模型系列: 专注于 YOLO 系列模型,特别是最新的 YOLOv11 版本,并向前兼容 YOLOv3 等早期版本。提供不同尺寸(如 n, s, m, l, x)的预训练模型,平衡性能与速度。
  • 高性能: 在标准数据集(如 COCO 和 ImageNet)上,项目提供的模型在精度(mAP, acc)和推理速度方面表现出色。
  • 易用性: 提供简洁的命令行接口 (CLI) 和 Python API,使得模型的安装、训练、验证、推理和导出都非常便捷。
  • 多种导出格式: 支持将训练好的模型导出为多种格式,方便部署到不同平台,例如 ONNX, TensorRT 等。
  • 集成生态: 与业内领先的 AI 平台深度集成,包括 Weights & Biases (实验追踪), Comet ML (实验管理和可视化), Roboflow (数据集管理和标注) 和 Intel OpenVINO (优化推理)。
  • Ultralytics HUB: 提供一个无代码平台,简化 YOLO 工作流,支持数据可视化、模型训练和部署。

技术栈与依赖:

项目主要使用 Python 语言开发,要求 Python 版本 >= 3.8,并依赖 PyTorch >= 1.8 深度学习框架。

安装与配置概述:

推荐使用 pip 包管理器进行安装:

pip install ultralytics

项目也提供了 Conda, Docker 或从源码构建等多种安装方式。

基本使用方法概述:

项目提供了命令行和 Python 两种主要的使用方式。

通过命令行进行预测:

# 在图像上使用预训练的 YOLO11n 模型进行预测
yolo predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'

在 Python 代码中使用:

from ultralytics import YOLO

# 加载预训练的 YOLO11n 模型
model = YOLO("yolo11n.pt")

# 在 COCO8 数据集上训练模型 100 个 epoch
train_results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# 在验证集上评估模型性能
metrics = model.val()

# 对图像进行目标检测
results = model("path/to/image.jpg") # 在图像上预测
results[0].show() # 显示预测结果

# 将模型导出为 ONNX 格式
path = model.export(format="onnx")

适用场景与目标用户:

该项目适用于需要进行对象识别、图像分析、目标跟踪等各种计算机视觉应用的开发者和研究人员。目标用户包括学生、研究人员、人工智能爱好者以及需要将视觉 AI 能力集成到商业产品中的企业。其高性能的模型和易用性使其适合从学术研究到工业部署的广泛场景。

项目状态与许可证:

Ultralytics 项目处于持续活跃开发状态。项目采用 AGPL-3.0 开源许可证,鼓励社区贡献和知识共享。对于商业用途,Ultralytics 提供单独的企业许可证选项,以规避 AGPL-3.0 的某些限制。

项目统计与信息

  • 作者: ultralytics
  • 主要语言: Python
  • Stars: 40480 ⭐
  • Forks: 7836🍴
  • 本周期新增 Stars: 80

要了解更多关于 ultralytics / ultralytics 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


ruanyf / weekly

科技爱好者周刊是在 GitHub 上维护的每周科技内容精选,方便查阅和搜索,并有程序员招聘信息 게시板。

项目介绍

科技爱好者周刊是一个在 GitHub 上维护并每周五发布的项目,旨在记录和分享当周值得关注的科技内容。它不仅仅是一个内容集合,也鼓励科技爱好者社区参与,用户可以通过提交 Issue 的方式推荐或自荐文章、软件和资源。此外,该项目在 GitHub 讨论区提供一个免费的程序员招聘信息 게시板,为开发者提供就业信息。

周刊的内容积累了丰富的历史,用户可以通过多种方式查阅和搜索。除了利用 GitHub 平台自带的网页搜索功能外,有经验的用户还可以将整个仓库克隆到本地,然后使用标准的命令行工具(如 grep)进行高效检索。

例如,在本地克隆的仓库目录中,可以使用类似以下的命令搜索包含“css”的内容:

$ grep -nri css docs | cat --number

这体现了项目利用 GitHub 作为内容发布的简洁高效平台,并提供了灵活的离线访问和搜索能力。

该项目的主要目标用户是广大科技爱好者、开发者、程序员以及对最新科技动态、软件开发、行业趋势、求职招聘信息等感兴趣的人群。它提供了一个集信息聚合、社区互动和资源发现于一体的平台。内容的组织形式清晰,按年份和期数划分,便于查阅历史内容。项目状态活跃,每周稳定更新。

项目统计与信息

  • 作者: ruanyf
  • 主要语言:
  • Stars: 60679 ⭐
  • Forks: 3319🍴
  • 本周期新增 Stars: 697

要了解更多关于 ruanyf / weekly 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


Lightricks / LTX-Video

LTX-Video是一个基于DiT模型的高质量视频生成项目,核心亮点在于实现了实时视频生成,支持文本、图像、关键帧等多种输入方式,并提供了多种模型版本以适应不同硬件需求。

项目介绍

LTX-Video 是一个基于 DiT 模型的高质量视频生成项目,其核心亮点在于实现了实时视频生成。它能够在 1216×704 的分辨率下生成每秒 30 帧 (30 FPS) 的视频,速度甚至快于观看本身。该模型在大型多样化视频数据集上训练,能够生成内容真实、细节丰富的高分辨率视频。

项目提供了多种灵活的视频生成能力:

  • 文本到视频 (Text-to-Video): 根据文本描述直接生成视频。
  • 图像到视频 (Image-to-Video): 以一张或多张图像作为起始帧或关键帧生成视频。
  • 基于关键帧的动画 (Keyframe-based Animation): 通过定义多个关键帧来控制视频内容和风格的变化。
  • 视频扩展 (Video Extension): 根据现有视频片段的上下文,向前或向后生成新的视频内容。
  • 视频到视频转换 (Video-to-Video Transformation): 基于现有视频修改其风格或内容(需要结合社区提供的工具)。
  • 多条件输入: 支持同时使用图片和视频片段作为条件进行生成,并可精确指定条件对应的目标帧。

LTX-Video 基于 Diffusion Transformer (DiT) 架构构建。项目代码库使用 Python 语言,依赖 PyTorch (>= 2.1.2, 推荐使用 CUDA >= 12.2 以获得最佳性能;macOS 用户可尝试 PyTorch 2.3.0 或 >= 2.6 配合 MPS)。为了满足不同硬件和应用需求,项目提供了多种预训练模型:最高精度的 13B 模型及其显存优化的 fp8 量化版本,以及平衡质量与速度的 2B 模型。其中,经过蒸馏的 2B 模型推理速度可提升高达 15 倍,且对扩散步数要求更低,是实现实时生成的核心。

项目的快速上手方式包括使用官方提供的在线 Demo (LTX-Studio, Fal.ai, Replicate) 或在本地运行。本地运行需要克隆 GitHub 仓库,设置 Python 环境并安装推理依赖。官方推荐使用与 ComfyUI 的集成,以利用其灵活的工作流管理各项功能,但也提供了 inference.py 命令行脚本作为基础用法示例。例如:

文本到视频生成示例:

python inference.py --prompt "一个宇航员在月球上跳舞" --height 704 --width 1216 --num_frames 33 --seed 0 --pipeline_config configs/ltxv-13b-0.9.7-dev.yaml

图像到视频生成示例 (以图片 first_frame.jpg 作为第一帧):

python inference.py --prompt "一个在月球上跳舞的宇航员" --conditioning_media_paths first_frame.jpg --conditioning_start_frames 0 --height 704 --width 1216 --num_frames 33 --seed 0 --pipeline_config configs/ltxv-13b-0.9.7-dev.yaml

(请根据实际情况调整提示词、路径、分辨率等参数,并查阅文档获取最新模型配置)

在使用模型时,项目强调了有效的 Prompt 工程,建议用户提供详细且具有时间顺序的场景描述,包含具体的动作、外观、环境和摄像机信息。项目还支持自动提示词增强功能,可以由语言模型自动补充短提示的细节。关键参数如分辨率、随机种子、引导尺度 (Guidance Scale) 和推理步数都可调整以平衡输出质量和生成速度。

社区贡献也是 LTX-Video 生态的重要部分。例如,ComfyUI-LTXTricks 提供了基于 RF-Inversion、FlowEdit 等技术的进阶视频编辑节点;LTX-VideoQ8 是针对 NVIDIA ADA GPU 优化的 8 位量化版本,能在较低显存下实现快速生成;TeaCache 采用了训练无关的缓存策略,进一步加速推理。这些社区项目扩展了 LTX-Video 的应用范围和性能。

项目代码遵循 Apache-2.0 许可证开源,模型权重遵循 OpenRail-M 许可证。LTX-Video 非常适合需要高效、高质量视频生成工具的内容创作者、依赖 AI 视频技术的开发者以及相关研究人员。相关的技术报告已发布,方便研究人员引用。

项目统计与信息

  • 作者: Lightricks
  • 主要语言: Python
  • Stars: 4237 ⭐
  • Forks: 345🍴
  • 本周期新增 Stars: 185

要了解更多关于 Lightricks / LTX-Video 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


element-plus / element-plus

Element Plus是由Element团队为Vue.js 3打造的UI组件库,提供丰富的组件和Vue 3新特性支持,是构建企业级应用的可靠选择。

项目介绍

Element Plus 是一个由 Element 团队开发的基于 Vue.js 3 的用户界面库。它旨在为开发者提供一套丰富、高质量的 UI 组件,帮助快速构建美观且功能强大的 Web 应用程序。该库充分利用了 Vue 3 的新特性,特别是 Composition API,并使用 TypeScript 编写,提供了更好的类型提示和代码可维护性。

项目核心定位是成为 Vue 3 应用开发的坚实基石,提供一致的设计语言和高效的开发体验。它继承了 Element UI 在 Vue 2 生态中的广泛影响力和良好口碑,并针对 Vue 3 进行了全面的重写和优化。

其主要功能和特性包括:

  • 丰富的组件集合: 提供涵盖数据展示、数据录入、反馈、导航等多种常用场景的组件,满足大部分后台管理系统或企业级应用的需求。
  • Vue 3 & TypeScript 支持: 基于 Vue 3 Composition API 构建,原生支持 TypeScript,提供完整的类型定义,有助于大型项目的开发和维护。
  • 模块化和按需加载: 支持组件的按需引入,有效减小打包体积,提升应用加载性能。
  • 国际化支持: 提供完善的国际化解决方案,方便将应用适配到不同的语言环境。
  • 主题定制: 允许用户根据项目需求定制组件的主题样式。
  • 无障碍访问 (Accessibility): 关注组件的可访问性,努力遵循相关标准,提升用户体验。
  • 从 Element UI 迁移支持: 提供专门的迁移工具(基于 gogocode)和详细的破坏性变更列表,极大地便利了从 Vue 2 Element UI 迁移到 Element Plus 的过程。
  • 互动式 Playground: 提供在线的 Playground 环境,方便开发者快速尝试和调试组件。

技术栈方面,Element Plus 主要基于 Vue 3 和 TypeScript,项目构建和测试流程中使用了 Vitepress(用于文档)、pnpm(包管理器)、Vitest(测试框架)等现代前端工具。

对于开发者而言,开始使用 Element Plus 通常涉及通过包管理器(如 npm, yarn, 或 pnpm)安装依赖,然后在 Vue 3 项目中按需或全局引入组件及样式。详细的安装和配置指南在其官方网站和文档中提供。基本使用方法遵循 Vue 3 组件的使用范式,通过模板语法或 JSX/TSX 来组合和配置组件。

Element Plus 适用于所有使用 Vue 3 构建 Web 应用的场景,特别是企业级后台管理系统、内部工具、复杂的表单页面等。目标用户主要是 Vue.js 开发者,无论是新建 Vue 3 项目还是从 Vue 2 迁移项目,Element Plus 都是一个强大而可靠的 UI 库选择。

项目采用 MIT 许可证,这是一个开放且友好的许可证,允许自由使用、修改和分发。自 2022 年 2 月 7 日发布第一个稳定版本以来,Element Plus 的 API 已趋于稳定,并由一个活跃的社区持续维护和贡献。项目拥有庞大的用户基础和活跃的贡献者群体,体现了其在 Vue 3 生态中的重要地位。

项目统计与信息

  • 作者: element-plus
  • 主要语言: TypeScript
  • Stars: 25771 ⭐
  • Forks: 18392🍴
  • 本周期新增 Stars: 10

要了解更多关于 element-plus / element-plus 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


zed-industries / zed

Zed是由Atom和Tree-sitter创建者打造的高性能多人代码编辑器,旨在提供极速流畅的编码体验,并内置AI/LLM和实时协作功能。

项目介绍

Zed 是一款由创建了 Atom 和 Tree-sitter 的团队开发的高性能、支持多人协作的代码编辑器。项目核心目标是提供“思考同步”的编码速度和流畅体验,并内置了对实时多人编程的支持。

其主要特性包括:

  • 高性能: Zed 利用 Rust 语言构建,旨在提供极致的编辑速度和响应能力。
  • 多人协作: 内建共享工作空间功能,允许多个开发者在同一项目中实时协作编辑代码。
  • AI/LLM 集成: 项目正在积极探索和整合大型语言模型(LLM)功能,通过 Agent 面板提供智能编码辅助。相关代码库和配置 ইঙ্গিত了与 LLM 客户端(如 zed_llm_client)的交互,以及对特定模型(如 Claude)的支持。
  • 远程开发能力: 支持通过远程服务器进行开发,扩展了其适用场景。
  • 基于 Tree-sitter: 使用 Tree-sitter 实现快速准确的代码文件解析,为语法高亮、代码折叠等功能提供支持。

Zed 的技术栈主要围绕 Rust 构建,使用其自定义的 GPUI 框架处理图形用户界面。协作功能可能依赖于 LiveKit 等技术,而 AI/LLM 后端服务涉及 Postgres 数据库和 Docker 等容器化工具。

目前,Zed 主要面向 macOSLinux 平台提供可安装版本(可通过官网下载或包管理器安装)。WindowsWeb 版本正在积极开发中。项目欢迎社区通过贡献改进以及提供反馈。

项目的许可证情况相对复杂,代码库中包含了 AGPLApacheGPL-3.0 等多个许可证文件,具体适用范围需要查阅详细文件。

项目统计与信息

  • 作者: zed-industries
  • 主要语言: Rust
  • Stars: 58814 ⭐
  • Forks: 4107🍴
  • 本周期新增 Stars: 346

要了解更多关于 zed-industries / zed 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


mason-org / mason.nvim

mason.nvim 是一个方便 Neovim 用户轻松安装和管理 LSP 服务器、调试适配器、linter 和 formatter 的便携式包管理器,可在支持 Neovim 的任何系统上使用。

项目介绍

mason.nvim 是一个专为 Neovim 打造的可移植软件包管理器。它的核心目标是为 Neovim 用户提供一个简单易用的统一界面,用于安装、管理和维护各种外部开发工具,尤其是 LSP (Language Server Protocol) 服务器、DAP (Debug Adapter Protocol) 服务器、代码 linter 和代码 formatter。该插件强调其在 Neovim 支持的所有操作系统(包括 Linux、macOS 和 Windows)上的良好可移植性。

通过引入 mason.nvim,用户可以避免手动下载、配置这些工具的复杂过程,也无需依赖系统级的其他包管理器。它将软件包安装在 Neovim 标准数据目录下,并将可执行文件的路径自动添加到 Neovim 的 PATH 中,确保这些工具可以被 Neovim 内置功能或第三方插件无缝调用。

项目的主要功能和特性包括:

  • 统一管理界面: 提供一个交互式的图形窗口 (:Mason),方便用户浏览、安装、更新和卸载软件包。
  • 命令行操作: 支持通过 Neovim 命令(如 :MasonInstall, :MasonUninstall, :MasonUpdate 等)进行软件包的安装和管理,便于自动化配置。
  • 广泛的软件包支持: 专注于管理 LSP 服务器、DAP 服务器、linters 和 formatters 这类关键的编辑器辅助工具。完整的软件包列表可以在其官方注册表中查看。
  • 注册表机制: 通过连接到软件包注册表(默认为 mason-org/mason-registry)来获取可用的软件包信息和安装脚本。
  • 便携式安装: 软件包被安装在 Neovim 的数据目录中,与系统环境相对隔离,提高了环境一致性。
  • 自动 PATH 集成: 安装的工具的可执行文件会被添加到 Neovim 可识别的 PATH 中,简化了后续工具的调用配置。
  • 丰富的配置选项: 允许用户高度自定义插件的行为,包括安装目录、日志级别、并发安装数量、UI 样式、快捷键等。
  • 扩展支持: 提供了配合其他插件(如 mason-lspconfig.nvim 用于方便地与 nvim-lspconfig 集成)使用的扩展机制。

技术栈与依赖方面,mason.nvim 主要使用 Lua 语言开发。运行该插件需要 Neovim 版本在 0.10.0 或更高。此外,为了执行软件包的下载和安装,系统需要具备一些基本工具:在 Unix 系统上通常需要 gitcurlwgetunziptargzip;在 Windows 系统上需要 powershellpwshgitGNU tar 以及一个解压工具(如 7zip, peazip 等)。根据安装的具体软件包,可能还需要 cargo, npm 等其他语言的包管理器。

安装 mason.nvim 本身通常是通过 Neovim 的第三方插件管理器(如 Packer, lazy.nvim, vim-plug)完成。例如使用 lazy.nvim:

{
    "mason-org/mason.nvim"
}

安装插件后,需要在 Neovim 配置中调用 require("mason").setup() 进行初始化。基本的配置可以像这样自定义 UI 图标:

require("mason").setup({
    ui = {
        icons = {
            package_installed = "✓",
            package_pending = "➜",
            package_uninstalled = "✗"
        }
    }
})

典型的使用场景是开发者在配置或管理 Neovim 的语言开发环境时,使用 mason.nvim 来便捷地安装和更新对应语言的 LSPs、linters 和 formatters。

该项目遵循 Apache-2.0 许可证。

项目统计与信息

  • 作者: mason-org
  • 主要语言: Lua
  • Stars: 8876 ⭐
  • Forks: 307🍴
  • 本周期新增 Stars: 31

要了解更多关于 mason-org / mason.nvim 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


Blaizzy / mlx-audio

mlx-audio 是一个基于 Apple MLX 框架的语音处理库,可在 Apple Silicon 上进行高效的文本转语音、语音转文本和语音转语音,并支持多种模型、语言和 Web 界面。

项目介绍

MLX-Audio 是一个基于 Apple MLX 框架构建的语音处理库,专注于为 Apple Silicon 提供高效的文本转语音 (TTS)、语音转文本 (STT) 和语音转语音 (STS) 能力。它旨在充分利用 Apple 芯片的性能优势,实现快速的语音合成与分析。

该项目的主要特点包括:

  • 高性能推理: 专为 Apple Silicon (M 系列芯片) 优化,提供快速的推理速度。
  • 多种功能支持: 提供文本转语音 (TTS)、语音转文本 (STT) 和语音转语音 (STS) 功能。
  • 多语言与语音定制: 支持多种语言,并提供语音定制选项,允许调整说话速度 (0.5x 至 2.0x)。
  • 交互式 Web 界面与 API: 内建一个基于 FastAPI 的 Web 服务,提供带 3D 音频可视化效果的交互式界面和 RESTful API 接口,方便进行 TTS 生成、音频播放与文件管理。
  • 模型支持: 支持多种语音模型,包括:
    • Kokoro: 一个多语言 TTS 模型,支持美式英语 ('a')、英式英语 ('b')、日语 ('j') 和普通话 ('z') 等(部分语言需额外依赖)。
    • CSM (Conversational Speech Model): 支持 TTS 和语音克隆功能,可以通过参考音频样本来定制声音。
  • 量化支持: 支持对模型进行量化(如 8-bit 量化),以进一步提升性能和减小模型大小。
  • 易于使用: 提供命令行接口 (CLI) 和 Python API,方便集成和使用。命令行工具可以快速生成音频,Python API 提供了更灵活的调用方式,例如批量生成或保存到文件。
  • 输出管理: 生成的音频文件会自动保存到指定或默认的输出目录,Web 界面支持直接打开该目录。

安装该库主要通过 pip 进行:pip install mlx-audio。若需要 Web 界面和 API 功能,还需安装相应的依赖:pip install -r requirements.txt

基本使用方法包括:通过 CLI 命令 mlx_audio.tts.generate --text "你的文本" 生成音频,或在 Python 代码中导入 mlx_audio.tts.generate.generate_audio 函数进行更灵活的调用。Web 服务可通过 mlx_audio.server 命令启动。

该项目适用于需要在 Apple Silicon 设备上进行高效语音处理(如构建本地应用、快速原型开发或个人项目)的开发者和用户。

项目采用 MIT 许可证进行发布,允许自由使用、修改和分发。项目依赖于 MLX 框架、Python 3.8+ 以及用于 Web 功能的 FastAPI 和 Uvicorn。代码中也引用了 Kokoro 模型架构和 Three.js(用于 Web 界面可视化)。

项目统计与信息

  • 作者: Blaizzy
  • 主要语言: Python
  • Stars: 1268 ⭐
  • Forks: 92🍴
  • 本周期新增 Stars: 245

要了解更多关于 Blaizzy / mlx-audio 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


Lightricks / ComfyUI-LTXVideo

ComfyUI-LTXVideo 是 ComfyUI 的自定义节点集合,旨在支持 Lightricks 的 LTX-Video 模型,提供了视频生成、编辑、工作流优化等功能,帮助用户更高效地利用 LTX-Video 进行视频创作和处理。

项目介绍

ComfyUI-LTXVideo 是一个专为 ComfyUI 设计的自定义节点集合,旨在为使用 Lightricks 的 LTX-Video 模型提供支持和实用工具。该项目扩展了 ComfyUI 的功能,使用户能够在该平台上更便捷、更高效地进行视频生成及编辑。虽然 LTXV 模型本身的核心代码已集成至 ComfyUI 主体,此项目提供了一系列附加节点和优化的工作流,深化了对 LTXV 模型特有能力的应用。

核心功能与特性包括:

  • 支持 Lightricks 推出的 LTX-Video 系列视频生成模型,包括不同版本(如 LTXV 13B 0.9.7, 0.9.6, 0.9.5 等)及优化版本(如量化版,降低显存需求,优化在消费级 GPU 上的性能)。
  • 引入 Latent Upscaling(潜在空间超分)模型,支持空间和时间维度上的潜在张量超分,可在不进行完整编解码的情况下实现多尺寸推理,显著提高生成效率和质量。需要将相应的超分模型文件放置在 ComfyUI 的 models/upscale_models 目录下。
  • 提供一系列简化的工作流示例(以 JSON 文件形式),覆盖从单图生成视频(Image to Video)到结合关键帧、视频时长扩展等多种应用场景,方便用户快速上手和理解功能。
  • 增强的引导控制:通过如 STGGuiderAdvanced 等节点,允许在扩散过程的不同阶段应用不同的参数(如 CFG 和 STG),实现更精细、更高质量的视频生成控制。
  • 支持帧条件和序列条件,用于视频帧之间的插值以及对现有视频序列进行扩展(从开头、结尾或中间),增强了视频编辑和连贯性控制能力。
  • 集成 Prompt Enhancer 节点,该工具旨在帮助用户生成更适合 LTX-Video 模型性能优化的提示词。
  • 整合 LTXTricks 中的部分功能(如 Flow Edit, RF Edit),支持基于反演的视频编辑技术。
  • 添加图像退化系统以改进生成视频的运动表现。
  • 支持链式使用潜在内容,用于实现更高分辨率的视频生成。
  • 在图像到视频(I2V)工作流中集成了图像字幕功能。

技术栈与依赖:

  • 项目基于 ComfyUI 平台开发,主要使用 Python 语言。
  • 核心依赖是 Lightricks 的 LTX-Video 模型文件(通常为 .safetensors 格式),需要从 Hugging Face 等平台下载并放置到 ComfyUI 的模型目录(通常是 models/checkpoints)。
  • 需要安装兼容的文本编码器,例如 T5 系列模型(可以通过 ComfyUI Model Manager 安装)。
  • 使用量化版本的 LTX-Video 模型需要额外安装 LTXVideo-Q8-Kernels 软件包。
  • 部分高级功能和示例工作流可能依赖于其他 ComfyUI 自定义节点,例如 ComfyUI-VideoHelperSuite,通常可以通过 ComfyUI-Manager 中的“Install Missing Custom Nodes”功能自动安装。

安装与使用概述:

推荐使用 ComfyUI-Manager 进行安装,直接在管理器中搜索 ComfyUI-LTXVideo 并按指示安装即可。手动安装则需要将此代码库克隆到 ComfyUI 安装目录下的 custom_nodes 文件夹中,然后进入该目录执行以下命令安装所需的 Python 包:

cd custom_nodes/ComfyUI-LTXVideo && pip install -r requirements.txt

安装完成后,启动 ComfyUI,自定义节点即会自动加载。用户可以加载项目提供的示例工作流(位于 example_workflows 文件夹),并通过 ComfyUI 的图形界面调整参数,进行视频生成和编辑操作。模型文件需要单独下载并放置到指定目录。

适用场景与目标用户:

该项目面向对 ComfyUI 和使用 LTX-Video 模型进行视频生成与编辑感兴趣的技术人员和创作者。它特别适用于需要利用 LTX-Video 的最新功能和优化工作流来提高视频创作效率和质量的场景,包括但不限于文本到视频、图像到视频、视频插值、视频内容扩展以及需要精细控制运动和风格(通过反演编辑)的应用。

项目状态与许可证:

项目目前处于积极开发和维护状态,不断发布更新和优化。代码遵循 Apache-2.0 开源许可证。

项目统计与信息

  • 作者: Lightricks
  • 主要语言: Python
  • Stars: 1264 ⭐
  • Forks: 98🍴
  • 本周期新增 Stars: 50

要了解更多关于 Lightricks / ComfyUI-LTXVideo 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库


heroiclabs / nakama

Nakama是一个开源的分布式服务器,专为社交和实时游戏及应用设计,提供用户认证、数据存储、社交系统、多人游戏等多种核心后端功能,帮助开发者快速构建可扩展的产品。

项目介绍

Nakama 是一个开源的分布式服务器,专门为社交类和实时类的游戏及应用提供强大的后端功能。它旨在帮助开发者快速构建具有可扩展性、能够处理大量并发用户和复杂互动逻辑的产品,无需从头开发底层服务。

项目提供了一系列内置核心功能,以简化游戏和应用的开发:

  • **用户认证与管理:**支持通过多种方式注册和登录用户,包括社交网络账户、邮箱或设备 ID,并管理用户记录和数据。
  • **数据存储:**提供结构化和非结构化的数据存储能力,方便存储用户档案、游戏进度、设置或其他任意 JSON 对象。
  • **社交系统:**支持好友关系、群组功能以及内置的社交关系图谱,便于构建社交互动功能。
  • **聊天功能:**实现用户间的 1对1、群组和全局聊天,并支持消息持久化存储。
  • **多人游戏:**支持主动的实时多人游戏和被动的回合制多人游戏模式。
  • **排行榜与锦标赛:**提供强大的排行榜系统,支持动态、季节性榜单以及基于用户位置的查询。支持创建和管理锦标赛或联赛。
  • **组队系统 (Parties):**允许用户组成团队,并在团队成员之间进行通信。
  • **应用内购验证:**提供苹果 App Store 和 Google Play 等平台的应用内购和订阅验证能力。
  • **实时通知:**能够向连接的客户端发送应用内消息和通知。
  • **运行时代码:**允许开发者使用 Lua、TypeScript/JavaScript 甚至原生 Go 语言扩展服务器逻辑,实现自定义 API 端点、游戏模式或业务逻辑。
  • **其他:**包括匹配系统、管理控制台、服务器度量指标等。

Nakama 核心使用 Go 语言开发,以实现高性能和良好的并发能力。运行时扩展支持多种语言,提供了极大的灵活性。它依赖 PostgreSQL 或 CockroachDB 作为其主要数据存储,这些数据库以其强大的可扩展性和可靠性而闻名。

部署方面,Nakama 支持通过 Docker 容器进行快速本地开发和生产部署。也可以下载原生二进制文件运行。通常需要一个独立的数据库实例(PostgreSQL 或 CockroachDB),并通过简单的命令进行数据库模式迁移和服务器启动。

例如,使用 Docker Compose 是本地快速部署的常用方式:

# 简化的 docker-compose.yml 示例
version: '3'
services:
  nakama:
    image: heroiclabs/nakama:latest
    command: /nakama/nakama --database.address postgres:5432 --logger.stdout --session.token_expiry_sec 7200 --metrics.prometheus --metrics.prometheus_port 9100
    ports:
      - '7350:7350'
      - '7351:7351'
    depends_on:
      - postgres
    healthcheck:
      test: ['CMD', 'curl', '-f', 'http://localhost:7350/v2/health']
      interval: 10s
      timeout: 5s
      retries: 5
  postgres:
    image: cockroachdb/cockroach:latest
    command: start-single-node --insecure --max-sql-memory=25% --cache=25%
    ports:
      - '26257:26257'
      - '8080:8080'
    healthcheck:
      test: ['CMD', 'curl', '-f', 'http://localhost:8080/_status/health']
      interval: 10s
      timeout: 5s
      retries: 5

然后运行 docker-compose up 启动。

使用其 REST API 进行设备认证的示例:

curl "127.0.0.1:7350/v2/account/authenticate/device?create=true" \
  --user "defaultkey:" \
  --data '{"id": "someuniqueidentifier"}'

Nakama 提供了适用于多种平台和语言的官方客户端库,包括 Unity, Unreal Engine, Godot 等游戏引擎,以及 .NET (C#), JavaScript, Java (Android), Swift (iOS) 等。

此外,Nakama 内嵌了一个 Web 管理控制台,可以通过浏览器访问 (默认地址 http://127.0.0.1:7351/)。控制台提供数据查看、玩家管理、实时状态监控等功能,方便运营和调试。

该项目处于积极开发状态,被全球的游戏工作室和应用开发者用于构建生产环境下的服务。项目采用 Apache-2.0 许可证。

项目统计与信息

  • 作者: heroiclabs
  • 主要语言: Go
  • Stars: 10636 ⭐
  • Forks: 1203🍴
  • 本周期新增 Stars: 78

要了解更多关于 heroiclabs / nakama 的信息、查看完整的贡献者列表或参与项目,请访问其 GitHub 仓库