产品详细介绍

Meshcapade 是一个将动作捕捉、动作生成与人体理解整合在一起的 AI 工具包,核心目标是“教会 AI 看见、理解并驱动人体运动”。它基于业界领先的 SMPL 技术,为游戏、时尚、机器人等领域提供高精度的 3D 身体与动作数据。

1. 无标记动作捕捉(Markerless Motion Capture)
Meshcapade 最大的特点是完全摆脱传统动作捕捉服和标记点:

  • 无需穿戴动捕服、无需在身体上贴标记点
  • 只需自然表演,即可捕捉身体与手部动作
  • 适合远程拍摄、快速试验和非专业演员使用

2. 单摄像头即可使用(Any Camera)
系统对硬件要求极低:

  • 支持手机、笔记本摄像头、网络摄像头或专业相机
  • 支持静止机位和移动机位
  • 方便在工作室、办公室甚至家庭环境中完成拍摄

3. 同时追踪演员与相机运动(Camera Motion Capture)
除了人物动作,Meshcapade 还能估计相机的运动轨迹:

  • 同步获取演员动作和相机位移/旋转信息
  • 便于在虚拟制作、虚拟拍摄中还原真实摄影机运动
  • 为后期合成、虚拟场景匹配提供更精确的数据基础

4. 全身与手指级别的细节捕捉(Full Body and Fingers)
Meshcapade 不仅捕捉大幅度身体动作,还关注精细动作:

  • 全身骨骼运动:走路、跑跳、转身、舞蹈等
  • 手部与手指细节:抓握、指向、手势表达
  • 适合对表演细节要求较高的游戏、动画、虚拟人项目

5. 适配多种工作流与格式(Ready for Any Workflow)
为了方便集成到现有 3D 内容生产流程中,Meshcapade 支持:

  • FBX、GLB 等主流 3D 动作与模型格式导出
  • 可导入到 Unity、Unreal Engine、Maya、Blender 等常用工具
  • 便于与现有角色绑定、动画库和资产管理系统结合

6. 未来支持的发型捕捉(Hair Capture,敬请期待)
Meshcapade 正在开发 3D 头发估计功能:

  • 自动生成更真实的 3D 发型
  • 提升虚拟人、数字替身的整体真实感
  • 为游戏、影视和虚拟试衣等场景提供更完整的数字形象

7. 面向多行业的 AI 人体理解能力
Meshcapade 不仅是动捕工具,更是“人体理解”平台:

  • 游戏与动画 / 虚拟人

    • 利用 SMPL 驱动的真实 3D 身体模型
    • 生成自然、可信的角色动作
    • 快速为虚拟主播、数字人、NPC 制作动作库
  • 时尚与服装试穿 / 尺码推荐

    • 通过高精度数字身体双胞胎(digital body twin)理解体型与尺寸
    • 减少尺码猜测,提升线上试穿与推荐准确度
    • 帮助品牌降低退货率、提升利润
  • 机器人与人机交互

    • 为机器人提供“类人”运动参考
    • 让机器人在与人协作时动作更自然、安全
    • 支持人机共融环境中的行为预测与路径规划

通过统一的 AI 基础模型,Meshcapade 将“看见人体”“理解尺寸”“生成动作”整合在一套工具中,为各类应用提供一致、可扩展的 3D 人体数据基础。

简单使用教程

以下为基于典型云端/桌面工作流的简要使用步骤,实际界面与流程以官网产品为准:

步骤一:注册并登录 Meshcapade 平台

  1. 访问官网链接,点击注册/Sign Up。
  2. 使用邮箱或第三方账号创建账户。
  3. 登录后进入控制台或项目管理界面。

步骤二:准备拍摄设备与环境

  1. 选择一台摄像设备:手机、网络摄像头或专业相机均可。
  2. 确保拍摄环境光线均匀、人物与背景对比清晰。
  3. 尽量保证人物全身(含手部)始终在画面中,避免严重遮挡。

步骤三:录制动作视频

  1. 根据需求设计表演内容(走路、跑跳、舞蹈、手势等)。
  2. 使用选定的摄像设备录制视频,可为静止机位或移动机位。
  3. 录制完成后,将视频文件导入电脑或上传至 Meshcapade 平台。

步骤四:上传视频并进行动作解析

  1. 在 Meshcapade 控制台中新建项目或新建动捕任务。
  2. 上传录制好的视频文件,选择对应的解析模式(如全身+手部)。
  3. 提交任务后,等待系统自动进行人体检测、骨骼估计与动作重建。

步骤五:预览与调整结果

  1. 在平台中预览生成的 3D 骨骼或网格动画。
  2. 检查关键动作、手指细节和相机运动是否符合预期。
  3. 如有需要,可重新上传更清晰的视频或调整拍摄方式后再次解析。

步骤六:导出到常用 3D 工具

  1. 在导出设置中选择所需格式,如 FBX、GLB 等。
  2. 下载导出的 3D 动作或角色文件。
  3. 将文件导入 Unity、Unreal Engine、Maya、Blender 等软件:
    • 绑定到已有角色骨骼
    • 作为动画片段加入动画状态机或时间线
    • 与场景、特效、镜头动画等进行整合

步骤七:在业务场景中应用

  • 游戏/动画制作:批量生成角色动作库,驱动虚拟角色表演。
  • 虚拟人/直播:为数字人创建自然的肢体与手势动作。
  • 时尚与电商:结合数字身体模型,用于虚拟试穿、尺码推荐。
  • 机器人与研究:将捕捉到的人体运动数据用于模仿学习或运动规划。

通过以上流程,用户可以在无需昂贵动捕硬件和复杂布置的前提下,快速获得高质量的 3D 动作与人体数据,并无缝融入现有内容生产与研发流程。