Comfyui进阶
1. IPadapter风格参考
使用ip-adapter之前需要安装扩展插件ip-adapter-plus ,在控制台搜索即可安装。ip-adapter模型下载地址:https://pan.baidu.com/s/12d-XneBvVWsopKtcZQj6gQ?pwd=1y6m#list/path=%2F clip_vision也需要下载模型放入
使用ip-adapter风格化其实很简单,需要在我们基础文生图的工作流上,用上2个ipadapter的节点以及一个加载图像即可。分别是(应用ipadapter(高级),ipadapter加载器,clip视觉图像处理和加载图像即可。)
2. Faceid角色参考
使用ip-adapter的Faceid也同理,需要在我们基础的文生图工作流上,用上3个ipadapter的faceid节点加上一个图像加载即可。分别是(应用IPadapterFaceID,ipadapterFaceID加载器和IPAdapterInsightFace模型加载器即可)在使用faceid的时候需要使用faceid的lora的,需要将faceid的lora下载安装到lora文件夹,并且在预设中正确选择faceid的版本类型
模型lora下载里阿连接:https://pan.baidu.com/s/1ZgjZtueiJ9GoIdU49DOK0w?pwd=gr5v#list/path=%2F
3.Reactor快捷换脸
多人换脸首先需要知道你的目标图片和源图片的区别,目标图像即使你把脸换到谁的身体上。源图像即使你要换的哪位的脸。
其次就是目标脸部索引的问题,画面中有多张人脸的时候,是用脸部编号来定位人脸的。经过老师多张画面的测试,人脸定位的规则是不确定的,需要根据每张画面的人脸去换才知道,这里举例的人脸是最右边唐悠悠是0,1是左边的吕子乔,2是右二的胡一菲,张伟是3
4. Instant-id换脸
istant-id换脸是在我们原有的文生图工作流上添加instant-id模块,需要的就是instantid模型加载器,面部分析,以及controlnet模型加载器即可,这个图像 kps 的链接是固定脸部五官位置的(图生图换脸比较需要)。同学们需要注意就是我们使用这个instantid需要SDXL的大模型的,包括VAE也是
5.产品换背景/角色
1.IC+风格参考产品换背景
IC-light模块包括加载IClight模型和应用IClight条件,这两个作用大家可以理解为增加了个光效控制的controlnet。
IClight的模型有两个选择,
真是系画风选择iclight_sd15_fc
二次元画风选择iclight_sd15-fcon
应用IClight的乘数就填默认的0.182
IClight细节迁移属于工作流的最后一步,在AVE接码出来之后与缩放后的原图进行画面融合,模型选择screen,模糊sigma类似于高斯模糊,越大越模糊,混合系数如果你想要接近原图产品,你就调高,但是与画面的光源融合度就月底,这个取决于画面效果。
指定区域灯光
这块区域属于给我们的背景单独去打光,可以指定我们的光源从什么角度来,什么位置来。主要是靠形状遮罩的X-Y的位置来控制光源位置,遮罩的模糊生长节点内的扩展来控制光源大小,重映射遮罩范围的最大值调整的是光源的强度,主要是记住这3点,其他和老师一样的参数一致即可。如果有需要了解具体某某参数可以自行调整或者参考老师ppt后面给出的节点解释。
遮罩模糊生长节点通常用于图像处理或图形编辑软件中,用于对遮罩边缘进行模糊处理,以及控制遮罩的扩展和生长效果
1.扩展(Expand):这个参数控制遮罩边缘的扩展距离,正值会使遮罩边缘向外扩展,负值则会向内收缩
2.扩展增量(Expand increment):这个参数可能用于控制扩展的增量,即每次调整扩展时的变化量
3.倒角(Chamfer):当设置为true时,这个参数会使遮罩边缘变得圆滑,而不是硬边。这有助于减少边缘的锐利感,使遮罩过渡更加自然
4.反向输入(Invert Input):如果设置为true,遮罩的效果可能会被反转,即遮罩内变为遮罩外,遮罩外变为遮罩内
5.模糊半径(Blur Raduis):这个参数控制遮罩边缘的模糊程度。数值越打,边缘越模糊,可以用于创建柔和的过渡效果
6.线性透明(Linear Transparency):这个参数可能控制遮罩边缘的透明度变化方式。如果设置为正值,遮罩边缘的透明度可能会线性变化
7.高阈系数(High Threshold Coefficent):这个参数可能用于控制遮罩的高阈值效果,影响遮罩的对比度或强度
8.fill_holes:如果设置为true,这个参数可能会自动填充遮罩内的空洞区域,使遮罩更加完整。
这些参数共同作用,可以精细控制遮罩的形状,边缘效果以及透明度,从而在图像处理或图形编辑中实现更加复杂和自然的效果
2.产品换角色工作流
ipadapterfaceid是属于角色风格一致性,不属于换脸,是参考脸部特征进行人物生成
6. Wan-VACE前置安装
首先WAN2.1模型使用是需要把我们的comfyui更新到比较新的,所以在这里先强烈建议大家,在本地使用的同学,最好是专门准备一个comfyui新的整合包,另一个之前版本的正常使用的整合包。
因为comfyui新版本可能会出现部分插件冲突或者报错,所以尽量保留一个以前的正常插件整合包,平常用的话就用之前没有更新的。需要用一些新插件的时候就可以用心的整合包,然后包括我们讲到Wan插件或者一些新插件就用新整合包。
云端使用的同学,就可以直接选用Comfyui刑帅教育定制版(最新版本带WAN2.1等)这个镜像就可以使用wan2.1了,里面内置了wan2.1插件和对应模型,但是其他插件可能会冲突报错,所以除了一些比较信新的技术,就用回不普通的comfyui定制版即可。
安装一下KJ大佬的wanvideo插件
连接:https://github.com/kijai/ComfyUI-WanVideoWrapper.git
如果之前就有这个插件,记得更新到最新版本
comfyui内核版本一定不能是很老的版本,参考老师的都至少是25年4月14日版本。
wan2.1_t2v_1.38_fp16.safetensors
wan2_1-T2V-1_3B_fp8_e4m3fn.safetensors
wan2_1-T2V-14B_fp8_e4m3fn.safetensors
这3个是WAN2.1的文生视频的模型,由于wan-vace模型只能搭配wan2.1文生视频使用,所以我们需要下载的是文生视频的模型,也就是T2V模型,按照显存选择模型,显存高于16GB的同学就用14B的,12GB显存就用1.3B的。fp8就是半经度,效果影响不大,推荐能用fp8,降低显存消耗
是所有工作流都需要使用的,放进models/diffusion_models文件夹内,最好再单独建立一个wan2.01的文件夹
模型直接下载地址(要梯子):
wan2.1_t2v_1.38_fp16.safetensors(1.3B FP16)
仓库:Comfy-Org/Wan_2.1_ComfyUI_repackaged
直链:https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/diffusion_models/wan2.1_t2v_1.3B_fp16.safetensors
存放路径:ComfyUI/models/diffusion_modelswan2_1-T2V-1_3B_fp8_e4m3fn.safetensors(1.3B FP8)
仓库:Kijai/WanVideo_comfy
直链:https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/wan2_1-T2V-1_3B_fp8_e4m3fn.safetensorspip install modelscope modelscope download Wan-AI/Wan2.1-T2V-1.3B --local_dir ./Wan2.1-T2V-1.3B存放路径:ComfyUI/models/diffusion_models
wan2_1-T2V-14B_fp8_e4m3fn.safetensors(14B FP8)
仓库:Kijai/WanVideo_comfy
直链:https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/wan2_1-T2V-14B_fp8_e4m3fn.safetensors
存放路径:ComfyUI/models/diffusion_models
Wan2_1-VACE_module_1_3B_bf16.sagetensors
Wan2_1-VACE_module_14B_bf8_e4m3fn.sagetensors
这2个是Wan-vace需要的VACE模型。也就是主要的模型,显存高于16GB的同学就用14B的,12GB显存就用1.3B的
是所有工作流都需要使用的,放进models/diffusion_models文件夹内,最好再单独建立一个vace的文件夹
umt5-xxl-enc-bf16.safetensors
umt5-xxl-enc-fp8_e4m3fn.sagetensors
这个是wan2.1需要的Clip模型。也就是文本编码模型,识别提示词用的,显存高的同学就用fp16的,低显存就用fp8的。
是文/图生视频都需要使用的,放进models/clip文件夹内
wan_2.1_vae.safetensors
这个是wan2.1需要的vae模型。也就是图像解码/编码模型,所有工作流都需要使用的,放进models/vae文件夹内
