比肩Midjourney-v6,快手的文生图开源模型可图Kolors一发布,开源社区就炸开了锅。短短几天,可图在Github上收获2k Star,Huggingface模型下载热榜第一。
7月6日,快手宣布开源数十亿参数的文生图模型可图Kolors,可图支持中英文双语,支持长达256 token的上下文长度,最重要的是可以渲染中文,生成效果上实现了质的飞跃。
值得一提的是,可图采用了智谱的开源大模型ChatGLM3作为文本编码器,对中文的理解能力远超很多竞品。
国产文生图模型的强势崛起让人振奋,不过,由于硬件等客观条件限制,大多数跃跃欲试的用户却很难在本地部署并体验可图。
首先,可图模型完整下载有28G,下载模型、存放模型比较不方便;其次,可图采用的ChatGLM3代替了传统的CLIP模型做文本提示词嵌入,语义能力增强的同时显存消耗也从原来的几百MB变成十几G,这样,本地显存少于20G的用户,需要用有损量化或者损失推理速度的办法运行可图。
为了让用户无痛使用可图,硅基流动团队开源了BizyAir节点,这是一个专用于ComfyUI的节点仓库,首批节点就有可图Kolors。
现在,没有显卡,不用下载模型,你也能用可图极速生成图片。
BizyAir还同步上线了一个小惊喜。考虑到写提示词的环节也很费劲,我们开源了SiliconCloud LLM节点,让GLM4、DeepSeek V2 Chat这类顶尖大语言模型接入ComfyUI,帮助你在工作流中生成、提炼提示词。
以DeepSeek V2 Chat为例,如果用它提炼提示词,需要500G左右的硬盘空间和8张A100以上的显卡才能部署这个模型,而SiliconCloud LLM节点直接提供了这个能力。
除了免去了用户搭配环境、模型下载与模型部署的门槛与烦恼。硅基流动还对Kolors节点提供基于专用的图片生成推理引擎OneDiff优化,节约图片生成时间与成本。
当然,你也可以一键无缝接入已有ComfyUI工作流,并可自由与本地节点做平替或组合。
一键直达传送门:
代码:github.com/siliconflow/BizyAir
文档:bizyair.siliconflow.cn
那么,如何在ComfyUI中使用可图Kolors?
只需两大步。
一、安装BizyAir在ComfyUI Manager中搜索“BizyAir”即可完成安装。
此外,你还可以通过源码、Comfy-cli安装。Windows新手可以下载独立的压缩包,具体可见:siliconflow.github.io/BizyAir/getting-started/
二、快速开始
- 设置API密钥
首次使用,你需要通过“Set SiliconCloud API Key(设置SiliconCloud API密钥)”来生成API密钥(https://cloud.siliconflow.cn/account/ak)。之后,这个节点就可以删除了。之后重启程序,也不需要重新输入。
- 使用BizyAir节点
所有BizyAir节点都在“☁️BizyAir”目录下。其中“☁️BizyAir SiliconCloud LLM API”节点可以利用大型语言模型帮你精炼提示词、翻译或执行任何其他任务。
现在,你也可以添加“Kolors”节点快速进行文生图了。目前,BizyAir提供了与Kolors相关的节点,包括Kolors Sampler、Text encoding、VAE decoding、VAE encoding。
当然,图生图也不在话下。
快试试吧:
github.com/siliconflow/BizyAir
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。