FaceFusion这个AI换脸的项目已经太久没有更新了。作者终于在昨天更新了3.0,更新幅度大得惊人。这么久不更新,原来是一直在憋大招,这个CD冷却也太久了。。。我第一次时间就去做整合包了。本以为这还不是有手就行的事,但是有点难度。因为3.0更新太大了,所以之前版本的模型还有一些东西根本用不上了,我只能慢慢去研究了。搞半天最后把我的系统的conda环境搞砸了。。。然后我就各种修复结果不但没有修好,相反把我的cuda版本也搞乱了,最后导致我不得不重装了系统。我真是手欠啊。有时候冲动真的是魔鬼。最后到了午夜时分才搞好。。。然后又是打包上传上来。都是泪。。。。
这个整合包我测试了半天,按理来说应该没什么问题了,如果各位小伙伴在玩的时候有什么问题 可以留言告知一下。
先看演示吧,为了不侵犯他人的肖像之类的东西,我就只放换脸后的视频。各位参考参考,下图是AI生成的2个小姐姐,替换视频的里面的脸
下面来讲下 详细操作 点击启动后就是这么一个黑洞洞的窗口
然后打开一个链接
http://127.0.0.1:7860 这个链接在黑窗口那里复制即可
需要手动复制在浏览器里面打开
然后出来这样一个界面
经群里网友提示 简单从万能君那里复制了下翻译
其实我个人觉得这些都是简单的英文单词,一般都认识如果实在是不认识也可以用浏览器翻译下
完全没有必要去单独做汉化了
下面已经就是正经开始操作
点这里选择你要换的脸
这里选择你要换的视频,然后输出质量选100
比如我换的这个小姐姐的视频 其他都不要动。点最下面的开始
看到开始读秒就说明开始了,在黑洞洞那个窗口也会有各种文字滚动
等完成以后 会有提示Processing to video succeed
点击如图所示的地方 把视频保存到你要保存的地方
下面是最新版截图
视频也会自动保存在整合包里面的output目录下。
操作就是这么简单。其他参数都默认即可 不要动。第一次运行会慢一些,因为会自动下载一些对应的模型,请耐心等待,下载好后以后再运行就速度很快了。
下面是我使用了这个工具几天的一点心得。
首先 换脸的文件 不要有中文名字和中文路径,否则很容易报错
其次 电脑的用户名 一定要是英文,否则也会报错
再次 换脸的图片 必须是正面 而且要高清一点点,如我上面的小姐姐所示,可以参考下
否则就会提示这个错误
因为我的显卡是A卡,又是比较老旧的A卡 rx580了 所以不支持用显卡来跑,只能用cpu慢慢跑。但是效率也还可以。
现在已经已经支持了A卡,显卡效率远超CPU。
下面是进阶教程。
这个工具启动后有很多默认的参数,如果你想修改这些参数,可以用记事本打开运行.bat这个文件,记得先备份好这个文件
call py310\python.exe run.py --skip-download --temp-frame-format png --output-video-quality 100 -o output --system-memory-limit 24 --output-video-preset superfast --frame-processors face_swapper face_enhancer --face-enhancer-model restoreformer_plus_plus --face-swapper-model uniface_256 --execution-thread-count 8 --face-detector-model retinaface --face-detector-size 160x160,320x320
找到如上一段代码,下面是这段代码的解释
--skip-download: 这个参数可能表示跳过下载某些资源或数据。
--temp-frame-format png: 临时帧的格式设置为PNG。
--output-video-quality 100: 输出视频的质量设置为100(通常是最高质量)。
-o output: 设置输出目录或文件名为 output。
--system-memory-limit 24: 系统内存限制设置为24GB(或可能是其他单位,具体取决于脚本如何实现)。
--output-video-preset superfast: 输出视频的预设设置为“superfast”,这通常与视频编码速度有关,可能牺牲了一些质量以获得更快的编码速度。
--frame-processors face_swapper face_enhancer: 指定两个帧处理器:face_swapper 和 face_enhancer,它们可能分别用于人脸交换和人脸增强。
--face-enhancer-model restoreformer_plus_plus: 为 face_enhancer 帧处理器指定模型为 restoreformer_plus_plus。
--face-swapper-model uniface_256: 为 face_swapper 帧处理器指定模型为 uniface_256。
--execution-thread-count 8: 执行线程数设置为8,这意味着脚本将使用8个线程来并行处理。
--face-detector-model retinaface: 指定人脸检测模型为 retinaface。
--face-detector-size 160x160,320x320: 人脸检测器的大小或分辨率设置为160x160和320x320两种尺寸。
这些注释我懒得去手动打字了,用AI帮我注释的,我大致看了下没什么大问题,估计各位小伙伴都能看明白就行了,更改这些参数就可以更改facefusion启动后的默认参数
我举个例子 你们就明白了
--face-swapper-model uniface_256 如果想改一个默认的模型 可以改成
--face-swapper-model inswapper_128 这样启动后的默认模型就改了
其他就看你们自由发挥了,想获取更详细的参数说明可以去看官方开源项目那里看看了。
3.0 更新记录
改造架构,让一切都成为工作
为换脸器引入像素提升
为面部检测器添加多角度处理
引入年龄修正处理器
推出基于Live Portrait的表情恢复处理器
推出Live Portrait人脸编辑处理器
用resnet_34模型替换人脸解析器
发布GHOST换脸模特
释放帧增强器real_esrgan_x8型号
介绍SimSwap和GHOST的ArcFace转换器模型
基于本地哈希验证引入离线优先资产
将gender_age替换为高级公平脸模型
将顺序、年龄和性别转移到面部选择器
支持CUDA 12.4、TensorRT 10.4、OpenVino 2024.1和ROCm 6.2
在无头模式下提供适当的错误代码
将CLI迁移到命令以及相关参数
介绍定制的peppa_wutz人脸地标模型
介绍——人脸地标模型论证
介绍——输出音频编码器参数
添加视频编码器h264_videotobox和hevc_videototoolbox
将--face选择器顺序默认值更改为大-小
用上下文感知推理管理器替换全局变量
调整UI布局和视觉外观
更新至最新Gradio 4
提供多范围滑块来修剪视频帧
在UI中引入日志级别感知终端组件
确保基准测试结果更加准确
由于精度低,删除面部检测器模型yunet
修复面部切换统一模型中的闪烁问题
修复ROCm和DirectML的线程和预览崩溃问题
修复webp图像的图像质量
修复ffmpeg处理的终止
https://www.myhelen.cn/helen/240.htm
https://www.myhelen.cn/helen/242.htm
https://www.myhelen.cn/helen/246.htm
https://www.myhelen.cn/helen/250.htm 最新N卡教程
有问题 需要解答,请先告知自己的显卡参数以及下载的是哪个版本,我没有未卜先知的能力,上面的教程麻烦先看看再问!
下面是几个必须要安装的软件否则运行不了
运行库不管是什么卡都要安装
https://www.jian27.com/html/2290.html
AMD显卡 AMD HIP SDK必须安装3.0 以后只能使用CPU运行了
下载地址
https://pan.quark.cn/s/f5f86d769394
https://drive.uc.cn/s/eab589fe1a1d4
https://pan.baidu.com/s/1c65OrFR18AuHOvTH56Yu7Q?pwd=6666
修改facefusion2.6.1 缓存目录的方法
https://www.myhelen.cn/helen/253.htm
修改facefusion 3.0 缓存目录的方法
https://www.myhelen.cn/helen/263.htm
请勿将该工具用于任何非法行为,由此产生的一切后果自负
非常感谢大佬分享
来了来了
楼主好人一生平安
真的很牛逼感谢!!!
大佬谢谢了
迅雷云盘呢?
牛逼格拉斯
谢谢分享
我的GPU是4070S,安装的文章附件提供的12.2CUDA,但是还是提示我CUDA和CUDNN版本不正确
2024-06-23 09:19:42.0390428 [E:onnxruntime:Default, provider_bridge_ort.cc:1548 onnxruntime::TryGetProviderInfo_CUDA] D:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1209 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "D:\facefusion2.6.1N\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll"
*************** EP Error ***************
EP Error D:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:857 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.
when using [('CUDAExecutionProvider', {'device_id': '0', 'cudnn_conv_algo_search': 'DEFAULT'})]
Falling back to ['CUDAExecutionProvider', 'CPUExecutionProvider'] and retrying.
****************************************
2024-06-23 09:19:42.0649528 [E:onnxruntime:Default, provider_bridge_ort.cc:1548 onnxruntime::TryGetProviderInfo_CUDA] D:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1209 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "D:\facefusion2.6.1N\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll"
Traceback (most recent call last):
File "D:\facefusion2.6.1N\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 419, in __init__
self._create_inference_session(providers, provider_options, disabled_optimizers)
File "D:\facefusion2.6.1N\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 483, in _create_inference_session
sess.initialize_session(providers, provider_options, disabled_optimizers)
RuntimeError: D:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:857 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.
我没有N卡,无法给你答案。你可以下载文中的N卡链接试试另外一个工具
大部分顺利安装了,只有最后提示这个
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
gradio 3.50.2 requires numpy~=1.0, but you have numpy 2.0.0 which is incompatible.
感谢分享
5555555555555555555555
CUDA12.2已经安装成功,但还是运行错误
[E:onnxruntime:Default, provider_bridge_ort.cc:1548 onnxruntime::TryGetProviderInfo_CUDA] D:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1209 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "D:\facefusion2.6.1N\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll"
*************** EP Error ***************
EP Error D:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:857 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.
when using [('CUDAExecutionProvider', {'device_id': '0', 'cudnn_conv_algo_search': 'DEFAULT'})]
Falling back to ['CUDAExecutionProvider', 'CPUExecutionProvider'] and retrying.
感谢大佬分享!
感谢,不知道这个是换五官还是脸型一起换呢
5465123156410跪谢大佬!
ganxiefenxiang
感谢大佬的分享
感谢大佬
牛逼
挺不错啊
请问这种报错是啥原因导致的,谢谢
File "C:\AI\facefusion2.6.0A\facefusion\content_analyser.py", line 107, in analyse_video
if analyse_frame(frame):
File "C:\AI\facefusion2.6.0A\facefusion\content_analyser.py", line 75, in analyse_frame
probability = content_analyser.run(None,
File "C:\AI\facefusion2.6.0A\env\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 220, in run
return self._sess.run(output_names, input_feed, run_options)
onnxruntime.capi.onnxruntime_pybind11_state.Fail
安装一下cuda试试
哦哦,我的是集显,下载的A卡版本,选了dml和CPU,是不是跟CUDA没啥关系?谢谢
只能选cpu
2 0 2 4 - 0 6 - 2 2 2 1 : 1 8 : 5 0 . 8 6 2 9 7 6 2 [ E : o n n x r u n t i m e : D e f a u l t , p r o v d e r _ b r i d g e _ o r t . c c : 1 5 4 8 o n n x r u n t i m e : : T r y G e t P r o v i d e r I n f o _ C U D A ] D : \ a \ _ w o r k \ 1 \ s \ o n n x r u n t i m e \ c o r e \ s e s s i o n \ p r o v i d e r _ b r i d g e _ o r t . c c : 1 2 0 9 o n n x r u n t i m e : : P r o v i d e r L i b r a r y : : G e t [ O N N X R u n t i m e E r r o r ] : 1 : F A I L : L o a d L i b r a r y f a i l e d w i t h e r r o r 1 2 6 " " w h e n t r y i n g t o l o a d " D : \ f a c e f u s i o n 2 . 6 . 1 \ j i a n 2 7 \ l i b \ s i t e - p a c k a g e s \ o n n x r u n t i m e \ c a p i \ o n n x r u n t i m e _ p r o v i d e r s _ c u d a . d l l "
*************** EP Error ***************
EP Error D:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:857 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.
when using [('CUDAExecutionProvider', {'device_id': '0', 'cudnn_conv_algo_search': 'DEFAULT'})]
Falling back to ['CUDAExecutionProvider', 'CPUExecutionProvider'] and retrying.
****************************************
2 0 2 4 - 0 6 - 2 2 2 1 : 1 8 : 5 1 . 0 9 7 0 6 7 3 [ E : o n n x r u n t i m e : D e f a u l t , p r o v d e r _ b r i d g e _ o r t . c c : 1 5 4 8 o n n x r u n t i m e : : T r y G e t P r o v i d e r I n f o _ C U D A ] D : \ a \ _ w o r k \ 1 \ s \ o n n x r u n t i m e \ c o r e \ s e s s i o n \ p r o v i d e r _ b r i d g e _ o r t . c c : 1 2 0 9 o n n x r u n t i m e : : P r o v i d e r L i b r a r y : : G e t [ O N N X R u n t i m e E r r o r ] : 1 : F A I L : L o a d L i b r a r y f a i l e d w i t h e r r o r 1 2 6 " " w h e n t r y i n g t o l o a d " D : \ f a c e f u s i o n 2 . 6 . 1 \ j i a n 2 7 \ l i b \ s i t e - p a c k a g e s \ o n n x r u n t i m e \ c a p i \ o n n x r u n t i m e _ p r o v i d e r s _ c u d a . d l l "
Traceback (most recent call last):
File "D:\facefusion2.6.1\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 419, in __init__
self._create_inference_session(providers, provider_options, disabled_optimizers)
File "D:\facefusion2.6.1\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 483, in _create_inference_session
sess.initialize_session(providers, provider_options, disabled_optimizers)
RuntimeError: D:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:857 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.
The above exception was the direct cause of the following exception:
Traceback (most recent call last):
File "D:\facefusion2.6.1\run.py", line 6, in
core.cli()
File "D:\facefusion2.6.1\facefusion\core.py", line 112, in cli
run(program)
File "D:\facefusion2.6.1\facefusion\core.py", line 234, in run
ui.launch()
File "D:\facefusion2.6.1\facefusion\uis\core.py", line 88, in launch
ui_layout_module.render()
File "D:\facefusion2.6.1\facefusion\uis\layouts\default.py", line 45, in render
preview.render()
File "D:\facefusion2.6.1\facefusion\uis\components\preview.py", line 42, in render
conditional_append_reference_faces()
File "D:\facefusion2.6.1\facefusion\core.py", line 280, in conditional_append_reference_faces
reference_face = get_one_face(reference_frame, facefusion.globals.reference_face_position)
File "D:\facefusion2.6.1\facefusion\face_analyser.py", line 447, in get_one_face
many_faces = get_many_faces(vision_frame)
File "D:\facefusion2.6.1\facefusion\face_analyser.py", line 494, in get_many_faces
bounding_box_list_retinaface, face_landmark_5_list_retinaface, score_list_retinaface = detect_with_retinaface(vision_frame, facefusion.globals.face_detector_size)
File "D:\facefusion2.6.1\facefusion\face_analyser.py", line 173, in detect_with_retinaface
face_detector = get_face_analyser().get('face_detectors').get('retinaface')
File "D:\facefusion2.6.1\facefusion\face_analyser.py", line 91, in get_face_analyser
face_detectors['retinaface'] = onnxruntime.InferenceSession(MODELS.get('face_detector_retinaface').get('path'), providers = apply_execution_provider_options(facefusion.globals.execution_device_id, facefusion.globals.execution_providers))
File "D:\facefusion2.6.1\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 432, in __init__
raise fallback_error from e
File "D:\facefusion2.6.1\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 427, in __init__
self._create_inference_session(self._fallback_providers, None)
File "D:\facefusion2.6.1\jian27\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 483, in _create_inference_session
sess.initialize_session(providers, provider_options, disabled_optimizers)
RuntimeError: D:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:857 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.
Press any key to continue . . .
打开后网页显示走丢
安装一下cuda试试
感谢分享
感谢大佬的分享
感谢大佬的分享
感谢大佬的分享
感谢大佬的分享
感谢分享!
学习下
感谢分享
学习支持
高速下载地址
88888
谢谢
感谢大佬分享
牛成马了
牛牛的
谢谢大佬
非常感谢大佬分享
太好了,终于找到了
下一个试试呗
真的很牛逼感谢!!!
谢谢分享
好好好
谢谢剑二十七,辛苦了
好人一生平安
好好好好
谢谢大佬!
1
跪谢大佬!