Hunyuan3D-1.0 是由腾讯公司研究团队于 2024 年推出的 3D 生成扩散模型模型,包括一个轻量版和一个标准版,均支持从文本和图像输入生成高质量的 3D 资产,轻量版模型能在大约 10 秒内生成 3D 物体,而标准版则在大约 25 秒内完成,标准版本比精简版和其他现有模型多 3 倍参数。Hunyuan3D-1.0 的发布,为 3D 创作者和艺术家提供了一个强大的工具,可以自动化生产 3D 资产,提高了 3D 生成的速度和泛化能力。\
本教程是 Hunyuan3D-1.0 轻量版,使用了 3 个模型使 Web 界面包含 2 个功能:
- 图像生成 3D(image\_to\_3D)
- 文本转 3D(text\_to\_3D)
教程地址:\
https://go.openbayes.com/JjYAk
使用云平台:OpenBayes\
http://openbayes.com/console/signup?r=sony\_0m6v
登录 http://OpenBayes.com,在「公共教程」页面,选择「Hunyuan3D:仅需 10 秒生成 3D 资产」教程。
页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
选择「NVIDIA RTX A6000」以及「PyTorch」镜像,OpenBayes 平台上线了新的计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。
稍等片刻,待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。
本教程是 Hunyuan3D-1.0 轻量版,包含 2 个功能:「图像生成 3D (image to 3D)」和「文本转 3D (text to 3D)」
- 文本转 3D (text to 3D)
点击「text to 3D」,在「Input text」中输入文本提示词(一片绿色的树叶在白色背景上居中展现,清晰的纹理)。如果需要生成 gif 必须选中「Render gif」,「texture mapping」则表示是否将顶点着色更改为纹理着色。点击「Generate」生成。\
下列参数表示:
- T2I seed:生成图像的随机种子,默认为 0。
- T2I step:文本到图像的采样步数。
- Gen seed:生成 3D 代的随机种子。
- Gen step:3D 生成采样步数。
- max number of faces:3D 网格面数限制。
- 图像生成 3D (image to 3D)
点击「image to 3D」,在「Input image」中上传图像(注意:自行上传图像时,请务必保证图片为 n*n 的正方形,否则会出现报错的情况)。如果需要生成 gif 必须选中「Render gif」,「texture mapping」表示是否将顶点着色更改为纹理着色。点击「Generate」生成。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。