3D 模型在游戏开发、影视动画、虚拟现实 (VR) 等多个行业和场景中发挥着重要作用,但现有的 3D 生成扩散模型在快速生成和泛化能力上仍存在不足。为了解决这些问题,腾讯的研究团队推出了 Hunyuan3D-1.0,同时开源了轻量版与标准版模型。这一创新框架通过结合多视角生成与稀疏视角重建技术,有效攻克了 3D 生成技术中的多项挑战。
Hunyuan3D-1.0 在质量和效率之间实现了绝佳的平衡。在生成质量方面,Hunyuan3D-1.0 在形状和纹理的重建上展现了显著的优势,不仅能够精确捕捉物体的整体 3D 结构,在微小细节的刻画上也展现出了卓越的精细度。在生成速度方面,轻量版的模型仅需 10s 即可从单张图像生成 3D 图像,显著提升了 3D 建模的效率。
Hunyuan3D-1.0 与其它模型生成质量对比
目前「Hunyuan3D:仅需 10 秒生成 3D 资产」教程已上线至 HyperAI超神经教程版块, 同时支持文生 3D 和图生 3D,快来体验吧~
教程地址:
Demo 运行
- 登录 hyper.ai,在「教程」页面,选择「Hunyuan3D:仅需 10 秒生成 3D 资产」,点击「在线运行此教程」。
2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
- 点击右下角「下一步:选择算力」。
- 页面跳转后,选择「NVIDIA RTX A6000」以及「PyTorch」镜像,OpenBayes 平台上线了新的计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「下一步:审核」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!
HyperAI超神经专属邀请链接(直接复制到浏览器打开):
https://openbayes.com/console/signup?r=Ada0322_QZy7
- 确认无误后,点击「继续执行」,等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。
效果演示
本教程是 Hunyuan3D-1.0 轻量版,包含 2 个功能:「图像生成 3D (image to 3D)」和「文本转 3D (text to 3D)」
1.文本转 3D (text to 3D)
点击「text to 3D」,在「Input text」中输入文本提示词(一只棕白相间的仓鼠,站在白色背景前。照片采用居中构图方式,卡通风格)。如果需要生成 gif 必须选中「Render gif」,「texture mapping」则表示是否将顶点着色更改为纹理着色。点击「Generate」生成。
下列参数表示:
T2I seed: 生成图像的随机种子,默认为 0。
T2I step: 文本到图像的采样步数。
Gen seed: 生成 3D 代的随机种子。
Gen step: 3D 生成采样步数。
max number of faces: 3D 网格面数限制。
- 图像生成 3D (image to 3D)
点击「image to 3D」,在「Input image」中上传图像(注意:自行上传图像时,请务必保证图片为 n*n 的正方形,否则会出现报错的情况)。如果需要生成 gif 必须选中「Render gif」,「texture mapping」表示是否将顶点着色更改为纹理着色。点击「Generate」生成。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。