留言

5616

汇聚站内前300条留言   本页面24小时更新一次


谢谢分享
感谢
这个可以有
找找本体
网站不能登录了,修复...
账号无法登录
谢谢分享
谢谢分享
找到了,从百度网盘重...
好
感谢分享!
谢谢分享
谢谢分享
非常感谢
谢谢
360。。。我们公司常出...
6666
需要评论
谢谢分享
如果支持下载抖音,视...
请问下,这个软件可以...
期待老大来个版本比较...
没有。我也奇怪。下的...
你修改过代码?
Traceback (most recent call la...
仔细看视频教程
已更新
不想下了,关掉黑色窗...
这个软件压缩包50兆,...
选择的run-cuda.bat运行 ...

OK的,换个视频可以...
good
更新3.3.3了
因为你没有下载图片啊...
{
{
之前有用過3.0覺得不錯...
谢谢分享
之前好像有分享我忘了
xxxxfx谢谢分享
谢谢大佬分享
有没有ai对口型的工具
qiangda a !!!
已经修正,并更新了版...
迅雷下载链接是百度网...
这下不用再下载360了!
6666
一直在更新,牛
谢谢
有
站长非常用心,
发个蓝凑
这个最大的优势是下载...
学习一下
软件不好用,试下载B...
感谢分享
感谢分享!下载来试试...
很好很好谢谢
很好很好.謝謝分享
大佬,为什么我怎么调...
换个视频试试
--------更多AI工具,开...
我突然想换电脑了~!
这个软件超级棒
就會看見看見
直接放C盘,你这C盘究...
感谢分享
非常强大,非常好用啊
不错不错
感谢分享
谢谢,
看看你
我也是这个问题 之前...
感谢分享!
感谢分享
我再次测试没有问题
想进去喝茶 你为什么...
想问一下到这里就没反...
用手机下载DNS优选,设...
支持
刚刚手机上下载了DNS优...
修改下你上网的dns
嗯… 无法访问此页面
...
谢谢分享
这个简单 适合小白
我没遇到这个问题,如...
真的不错
V6.2完整包,应该是最...
你用的是哪个版本?
大佬,软件一切运行正...
打开看了,内容更少了...
6750GRE,装了啊
感谢楼主的分享
感谢分享
不错,感谢分享
谢谢
姑娘一句穿不暖,痴儿...
有情感很重要的
32432423
我文末有写官方地址 ...
请问有没有安卓手机版...
那说明你不是在我这里...
不行
试试jian27
你是什么显卡?安装了...
解压密码,下载几个都...
To create a public link, set `...
好东西
感谢分享
感谢分享
感谢分享
感谢分享
要什么科学?解压即可...
没有科学无法使用啊!
https://www.myhelen.cn/helen/2...
怎么搭呀
你AI 环境搭建好了没?
大佬们,请问这是什么...
什么密码
资源分享
谢谢分享
要密码啊,谁知道呢
我好像登录不了
感谢分享
不麻烦老师们了,朋友...
请问哪位老师能给我贴...
安装好cuda11.8和对应的c...
已经在运行 不用处理...
这个哪里不对
Traceback ...
谢谢大佬分享
出现这个,怎么处理?...
多谢老板
大神,报moov atom not foun...
联系过作者,现在部分...
自己百度下这怎么修改...
大佬不会改DNS啊? 网...
谢谢分享
讯飞免费?
感谢分享
这是精简版的啊
谢谢
感恩
非常实用
修改你的上网DNS.我再...
修改你的上网DNS.我再...
下载地址那么明显看不...
为什么找不到服务器?
大侠,不能正常下载呢...
好东西~,感谢分享!...
审核这么久 审核通过...
不错哦 会开发的人太...
等待审核中
下载链接在哪里
瞅瞅看
试试看?
我好像没有遇到这样的...
我当时测试的时候 那...
Exception in callback _Proacto...
我说,兄弟啊,你这调...
a卡有救了
试试修改下你上网的dns...
学习一下 好东西
感谢楼主分享
下不了
嗯… 无法访问此页面
...
怎么下载不了啊
感谢分享
这个可以用java或者pytho...
你可以换下上网的dns试...
我这边没有问题 可以...
666666
比如:点“夸克网盘”...
哪个没反应?
非常不错
谢谢,换了还是不行,...
谢谢分享,大佬
看下下载地址,上面的...
修改你上网的dns,其他...
这个软件相当奈斯啊
三个网盘都不行,不知...
我不是什么大师,点击...
大师,为啥我点网盘下...
感谢分享
这个软件很不错啊,感...
本站搜索winrar 用这个...
模型下载后放到哪里,...
感谢大佬分享
沙发
谢谢大师的分享。
谢谢大师辛勤付出。
for download url
下载后解压总是出问题
靠~早点看到能省下一...
謝謝
谢谢分享
感恩您的分享
很奈斯
这个工具牛逼啊
感谢分享
谢谢大师,我再重新下...
阿达大大阿达
仔细看文末的说明
找不到播放源
很好,很香。感谢分享
仔细看视频教程
666
谢谢分享!
找不到已经完成的视频
感谢分享
感谢分享
感谢分享
没问题的
謝謝
谢谢
正好需要
thx 4 sharing
谢谢剑侠
夸克网盘链接好像失效...
刚才我更新了最新版了...
可以
66666666
估计是需要AI处理的功...
大佬链接复制进去报错...
6666
感谢大佬
很红很很好
是什么意思?
多谢分享4
已试用,很好
提示:找不到下载模块...
谢谢分享
666
感谢分享
复制出来看看
为什么显示提取操作没...
感谢好人
最新修改版 已经可以...
再次测试 没有问题
谢谢分享
没法打开软件
好多图片放大的软件,...
想知道,第一选择的图...
谢谢提供软件!很有用
爱你剑27
太美妙了
再次测试没问题
打不开网盘跳转。。。...
跑schnell版8G的显存都可...
666
666
团子翻译器5.3.0
试试cuda11.8 以及对应的...
谢谢
cuda安装的是12.61,cudnn9...
6
感谢分享
没有安装好cuda和cudnn
谢谢分享
To create a public link, set `...
终于下载好了,开限时...
从百度网盘下载还是报...
脸的图片 参考我的图...
但是确实是高清图啊,...
cuda版本不对
WARNING[XFORMERS]: xFormers ca...
脸那个图片有问题,换...
大佬 您好,我下载的...
太6了
真的很大
一如既往的牛
感谢
666666
因为我要你们支持正版...
为什么我看不到下载链...
本站搜索winrar 用这个...
666
666
解压缩好几条报错信息...
666
666
谢谢分享
厉害厉害
这个已经在提示你了,...
Python 3.10.6 (tags/v3.10.6:9c...
这个要你安装下ffmpeg?...
这明显不是我做的整合...
感谢分享
老大,这是什么情况
s...
大佬你好。我是N卡4070S...
看看咋样
谢谢分享
666
哪个页面的百度网盘链...
百度网盘链接失效了
感谢🙏🏻
6666666
我win10测试没问题
我的 windows11 打不开哦...
非常好
感谢分享
https://github.com/fudan-gener...
再次测试 没有问题,...
666
谢谢分享谢谢分享
感谢分享啊
我也一样,老版本能输...
Photoshop 2024
大佬求JavPlayer 这个免...
666
开源网站是哪个?
这个怎么下载。点击网...
英伟达显卡 显存16g
最低运行要求是多少啊...
支持4K,时长1小时,强...
感谢分享
已经放进去了 你重新...
感谢分型分享
谢谢分享
压缩包里没有Chrome
感谢分享
谢谢分享,下个玩玩
感谢分享
只是12G显存我的看完后...
感谢博主
感谢啊
下载软件
感谢!
感谢楼主
感谢分享
非常感谢
感谢大佬分享
多谢分享。
太棒了 感谢
可以
把你的科学上网工具关...
感谢
666
--------更多AI工具,开...
安卓系统就可以安装
已经修正
谢谢分享
感谢分享
看一下
已经算是有点旧的版本...
好好好好好好
谢谢
能安装到投影仪里面吗
无下载地址咧
感谢
感谢分享
要看你登陆b站的账号...
没有免安装的
megspot有没有离线免安...
谢谢分享,非常感谢
学习一下
感谢分享
下4K是不是需要会员?
太好用了!  无敌!!感谢!
不错
感谢大佬分享学习
感谢分享,谢谢。
感谢楼主分享
向日葵经常出问题,换...
https://github.com/JiuLing-zha...
win10 64bit 程序闪退无法...
hao de hen
hao dongxi !
[FACEFUSION.CORE] Processing s...
6666666
感谢分享
谢谢老大分享
谢谢大佬分享
代码是开源的,你可以...
估计你搞错了地方,我...
19美元
这玩意收费的,好贵
大佬,直接把链接复制...
我点几个网盘进去,页...
看看那个好用,试一试...
感谢分享🙏应该是不...
为什么你不睁大眼睛?
你看不到下载地址?
为什么下载不了
如何下载啊
一直在找,很好的软件
谢谢分享
v0.3.4  这个版本好像是...
谢谢大佬分享
感谢楼主分享
谢谢分享
感谢楼主分享
为什么你不好好看教程...
宝贝,有中文吗?
为什么解压好了run。bat...
谢谢
太好了,谢谢
感谢分享
感谢分享
感谢分享
感谢分享
感谢分享
我用GridPlayer
求个软件 视频对比软...
谢谢大佬分享
你自己看看这段文字 ...
可能我描述的还是有点...
当贝
可以推荐一个支持本地...
一直想找一个支持播放...
好人一生平安
好用吗?
咨询各位大佬,哪个版...
速度是什么情况,,是...
还是会下载,下载完后...
谢谢
感谢剑侠分享
那就是cuda12.5,12.6以上...
科技越来越发达了!
谢谢
谢谢
感谢分享
有没有支持将本地的视...
看看
可以可以
谢谢分享
这个现在国内还能用吗...
谢谢
谢谢大佬!
谢谢楼主辛苦了
实用工具呀谢谢分享
谢谢
很好
咖咖
不需要下载模型了,我...
感谢分享感谢分享感谢...
感谢大大分享
15g下载完后打开是不是...
感谢分享 谢谢
退一步讲,如果觉得好...
这个我没注意,我一直...
haoyonga
ToDesk免费版的每月连接...
不是,我一直在用
不是有时长限制么?超...
有免费时长啊,超过时...
这是我用过最好用的浏...
谢谢
非常感谢
非常感谢
无需这么激动,内存32G...
如果你喜欢答非所问来...
12G的4070ti
大哥 工具的下载链接...
看看
看看
看看
看看
感谢分享啊
感谢分享
感谢分享哈哈。。
你的内存多大?
谢谢分享
谢谢
谢谢分享
12G显存会导致加载失败...
eqwe
12G显存会导致加载失败...
谢谢分享
谢谢分享!
xiexie
感谢分享🙏应该是不...
谢谢分享
相当容易啊,说没反映...
这个软件识别字幕比很...
谢谢老大分享
谢谢大佬分享
谢谢楼主分享
本次更新并不是版本更...
看看是谁
加油,支持作者
感谢分享
不错
支持
感谢大佬分享
感谢分享!!
好东西,才看到
感谢分享
感谢分享
升级有点快
文中有写的清楚
剑哥,12G的显卡可以用...
感谢分享
谢谢分享!
看看看看
感谢大佬分享学习
大好人一枚
谢谢大佬分享
xiexie
谢谢分享
感谢分享
工作窗口不能最大化,...
6.2版bug还是比较严重。...
感谢大佬 ,非常有用
感謝大大分享~
感谢分享
感谢分享
感谢分享
谢谢分享
实在是太感谢了
顧客交流
谢谢分享
谢谢分享
感谢分享
谢谢分享
下载了您分享的傻木优...
你仔细看看标题是什么...
不能安装啊
你用的不是我这个整合...
  1. 白羊健忘 白羊健忘
  2. 鲜花动人 鲜花动人
  3. 裙子踏实 裙子踏实
  4. 裙子踏实 裙子踏实
  5. 魁梧扯夏天 魁梧扯夏天
  6. 香蕉的硬币 香蕉的硬币

  7. 鬼谷之魔 鬼谷之魔
  8. 柠檬专注 柠檬专注
  9. 小熊猫瘦瘦 小熊猫瘦瘦
  10. 小熊猫瘦瘦 小熊猫瘦瘦
  11. 火龙果笨笨 火龙果笨笨
  12. 爱吃三丫的铜锣烧 爱吃三丫的铜锣烧
  13. 忐忑闻仙人掌 忐忑闻仙人掌
  14. 勤奋向乐曲 勤奋向乐曲
  15. 悦耳给楼房 悦耳给楼房
  16. 裙子单纯 裙子单纯
  17. 超人 超人
  18. honsonlin honsonlin
  19. 魁梧扯夏天 魁梧扯夏天
  20. 剑心 剑心
  21. 魁梧扯夏天 魁梧扯夏天
  22. 剑心 剑心
  23. 剑心 剑心
  24. 剑心 剑心
  25. 魁梧扯夏天 魁梧扯夏天
  26. 和谐演变狗 和谐演变狗
  27. 愤怒笑野狼 愤怒笑野狼
  28. 裙子舒适 裙子舒适
  29. 传统保卫 传统保卫
  30. 剑心 剑心
  31. 魁梧扯夏天 魁梧扯夏天
  32. 魁梧扯夏天 魁梧扯夏天
  33. 天空多情 天空多情
  34. 黑夜着急 黑夜着急
  35. 剑心 剑心
  36. 忧虑与康乃馨 忧虑与康乃馨
  37. 安静和手套 安静和手套
  38. 冬瓜小巧 冬瓜小巧
  39. 健忘宝贝 健忘宝贝
  40. 剑心 剑心
  41. 鸵鸟年轻 鸵鸟年轻
  42. 铅笔甜蜜 铅笔甜蜜
  43. 江南糖白虎 江南糖白虎
  44. 甜甜笑美女 甜甜笑美女
  45. 秋天难过 秋天难过
  46. 剑心 剑心

  47. 裙子单纯 裙子单纯
  48. 江南糖白虎 江南糖白虎
  49. 剑心 剑心
  50. 受伤用外套 受伤用外套
  51. 寒风怕孤单 寒风怕孤单
  52. 小熊猫瘦瘦 小熊猫瘦瘦
  53. 寒风怕孤单 寒风怕孤单
  54. 荷花平常 荷花平常
  55. 成就与龙猫 成就与龙猫
  56. 受伤用外套 受伤用外套
  57. 剑心 剑心
  58. 愤怒笑野狼 愤怒笑野狼
  59. 篮球秀丽 篮球秀丽
  60. 小蝴蝶成就 小蝴蝶成就
  61. 刻苦就微笑 刻苦就微笑
  62. 裙子单纯 裙子单纯
  63. 巨人纯情 巨人纯情
  64. 裙子单纯 裙子单纯
  65. 土豪 土豪
  66. 精明笑奇迹 精明笑奇迹
  67. 白云繁荣 白云繁荣
  68. 白云繁荣 白云繁荣
  69. 文艺的冬瓜 文艺的冬瓜
  70. 聪慧方花生 聪慧方花生
  71. 聪慧方花生 聪慧方花生
  72. 剑心 剑心
  73. 剑心 剑心
  74. 苗条专注 苗条专注
  75. 天宇清风 天宇清风
  76. boyboyjack boyboyjack
  77. 天宇清风 天宇清风
  78. 剑心 剑心
  79. 天宇清风 天宇清风
  80. 聪慧方花生 聪慧方花生
  81. 今夜无雨 今夜无雨
  82. 剑心 剑心
  83. jevence12 jevence12
  84. 煎蛋舒心 煎蛋舒心
  85. 剑心 剑心
  86. 煎蛋舒心 煎蛋舒心
  87. 仙人掌谦让 仙人掌谦让
  88. 愤怒笑野狼 愤怒笑野狼
  89. 鹰扬九天 鹰扬九天
  90. 聪慧方花生 聪慧方花生
  91. 干净打糖豆 干净打糖豆
  92. 简单踢树叶 简单踢树叶
  93. icolor icolor
  94. 安详等于唇膏 安详等于唇膏
  95. 小蝴蝶谨慎 小蝴蝶谨慎
  96. 剑心 剑心
  97. 仙人掌谦让 仙人掌谦让
  98. 剑心 剑心
  99. 要减肥爱紫菜 要减肥爱紫菜
  100. 剑心 剑心
  101. 剑心 剑心
  102. 要减肥爱紫菜 要减肥爱紫菜
  103. 大树机灵 大树机灵
  104. 大象寒冷 大象寒冷
  105. 聪慧方花生 聪慧方花生
  106. 聪慧方花生 聪慧方花生
  107. 聪慧方花生 聪慧方花生
  108. 聪慧方花生 聪慧方花生
  109. 剑心 剑心
  110. 刺猬优美 刺猬优美
  111. 剑心 剑心
  112. 甜蜜身影 甜蜜身影
  113. 剑心 剑心
  114. 寒风洁净 寒风洁净
  115. 剑心 剑心
  116. 丰富保卫摩托 丰富保卫摩托
  117. 机灵给芝麻 机灵给芝麻
  118. 要减肥爱紫菜 要减肥爱紫菜
  119. 电脑还单身 电脑还单身
  120. 聪慧方花生 聪慧方花生
  121. 月光俊逸 月光俊逸
  122. 月光俊逸 月光俊逸
  123. 剑心 剑心
  124. 剑心 剑心
  125. 河马甜美 河马甜美

    这个哪里不对 Traceback (most recent call last): File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\queueing.py", line 536, in process_events response = await route_utils.call_process_api( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\route_utils.py", line 322, in call_process_api output = await app.get_blocks().process_api( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\blocks.py", line 1935, in process_api result = await self.call_function( ^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\blocks.py", line 1520, in call_function prediction = await anyio.to_thread.run_sync( # type: ignore ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\anyio\to_thread.py", line 56, in run_sync return await get_async_backend().run_sync_in_worker_thread( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\anyio\_backends\_asyncio.py", line 2405, in run_sync_in_worker_thread return await future ^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\anyio\_backends\_asyncio.py", line 914, in run result = context.run(func, *args) ^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\utils.py", line 826, in wrapper response = f(*args, **kwargs) ^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\uis\components\instant_runner.py", line 82, in run create_and_run_job(step_args) File "F:\facefusion3.0.1\facefusion\uis\components\instant_runner.py", line 97, in create_and_run_job return job_manager.create_job(job_id) and job_manager.add_step(job_id, step_args) and job_manager.submit_job(job_id) and job_runner.run_job(job_id, process_step) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\jobs\job_runner.py", line 11, in run_job if run_steps(job_id, process_step) and finalize_steps(job_id): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\jobs\job_runner.py", line 66, in run_steps if not run_step(job_id, index, step, process_step): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\jobs\job_runner.py", line 52, in run_step if job_manager.set_step_status(job_id, step_index, 'started') and process_step(job_id, step_index, step_args): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\core.py", line 289, in process_step if common_pre_check() and processors_pre_check(): ^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\core.py", line 111, in processors_pre_check if not processor_module.pre_check(): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\processors\modules\age_modifier.py", line 88, in pre_check return conditional_download_hashes(download_directory_path, model_hashes) and conditional_download_sources(download_directory_path, model_sources) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\download.py", line 87, in conditional_download_sources _, invalid_source_paths = validate_source_paths(source_paths) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\download.py", line 127, in validate_source_paths if validate_hash(source_path): ^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\hash_helper.py", line 20, in validate_hash validate_content = validate_file.read() ^^^^^^^^^^^^^^^^^^^^ MemoryError

  126. 玩命等于可乐 玩命等于可乐
  127. 糊涂就砖头 糊涂就砖头
  128. 夕阳傻傻 夕阳傻傻
  129. 现代给电脑 现代给电脑
  130. 末日后飞升成仙的男人 末日后飞升成仙的男人
  131. 剑心 剑心
  132. 冒险王18 冒险王18
  133. 粗犷和汉堡 粗犷和汉堡
  134. 菠萝失眠 菠萝失眠
  135. 菠萝失眠 菠萝失眠
  136. 老实打茉莉 老实打茉莉
  137. 动人用往事 动人用往事
  138. 冷艳保卫荔枝 冷艳保卫荔枝
  139. 苗条合适 苗条合适
  140. 剑心 剑心
  141. 剑心 剑心
  142. 剑心 剑心
  143. 飞鸟热情 飞鸟热情
  144. 棒棒糖热情 棒棒糖热情
  145. icolor icolor
  146. 文艺的冬瓜 文艺的冬瓜
  147. 文艺的冬瓜 文艺的冬瓜
  148. 文艺的冬瓜 文艺的冬瓜
  149. 文艺的冬瓜 文艺的冬瓜
  150. bj bj
  151. bj bj
  152. 剑心 剑心
  153. 剑心 剑心
  154. 如意笑枫叶 如意笑枫叶
  155. 落寞与铃铛 落寞与铃铛
  156. 斑马欣喜 斑马欣喜
  157. 剑心 剑心
  158. 黑裤单纯 黑裤单纯
  159. 高山虚心 高山虚心
  160. 战斗机重要 战斗机重要
  161. 光亮演变曲奇 光亮演变曲奇
  162. 战斗机重要 战斗机重要
  163. 战斗机重要 战斗机重要
  164. AuthorHonei AuthorHonei
  165. 剑心 剑心
  166. 剑心 剑心
  167. 月亮激昂 月亮激昂
  168. 早晨深情 早晨深情
  169. 剑心 剑心
  170. 龙猫干净 龙猫干净
  171. 月光俊逸 月光俊逸
  172. 早晨深情 早晨深情
  173. 早晨深情 早晨深情
  174. 剑心 剑心
  175. 棒球贤惠 棒球贤惠
  176. 月光俊逸 月光俊逸
  177. 剑心 剑心
  178. 月光俊逸 月光俊逸
  179. 独特笑期待 独特笑期待
  180. jmxbf jmxbf
  181. 剑心 剑心
  182. 刺猬优美 刺猬优美
  183. 大门兴奋 大门兴奋
  184. icolor icolor
  185. llj12612 llj12612
  186. llj12612 llj12612
  187. 摩托积极 摩托积极
  188. 13123 13123
  189. 帽子难过 帽子难过
  190. 齊魯 齊魯
  191. 聪慧方花生 聪慧方花生
  192. 王不流行 王不流行
  193. 歪比巴卜 歪比巴卜
  194. 歪比巴卜 歪比巴卜
  195. 悲凉向白云 悲凉向白云
  196. 月光俊逸 月光俊逸
  197. 鲤鱼与裙子 鲤鱼与裙子
  198. 剑心 剑心
  199. 苹果笑路人 苹果笑路人
  200. 机智打花瓣 机智打花瓣
  201. 剑心 剑心
  202. 宝贝着急 宝贝着急

    666

  203. 感动的香菇 感动的香菇
  204. 机灵保卫百褶裙 机灵保卫百褶裙
  205. 聪慧方花生 聪慧方花生
  206. 聪慧方花生 聪慧方花生
  207. 聪慧方花生 聪慧方花生
  208. 剑心 剑心
  209. 齊魯 齊魯
  210. 勤劳迎音响 勤劳迎音响
  211. 大树眯眯眼 大树眯眯眼
  212. 齊魯 齊魯
  213. 蛋挞清秀 蛋挞清秀
  214. 愉快闻口红 愉快闻口红
  215. 剑心 剑心
  216. 剑心 剑心
  217. 烂漫笑小熊猫 烂漫笑小熊猫
  218. 月光俊逸 月光俊逸
  219. 大力爱樱桃 大力爱樱桃
  220. 山水糟糕 山水糟糕
  221. 从容迎白开水 从容迎白开水
  222. 糟糕与火 糟糕与火
  223. 剑心 剑心
  224. 戒指超帅 戒指超帅
  225. 灰狼谨慎 灰狼谨慎
  226. 大船聪慧 大船聪慧
  227. 聪慧方花生 聪慧方花生
  228. 汉堡贪玩 汉堡贪玩

    666

  229. 红牛野性 红牛野性
  230. 剑心 剑心
  231. 默默和龙猫 默默和龙猫
  232. 兴奋与哈密瓜 兴奋与哈密瓜
  233. 剑心 剑心
  234. 剑心 剑心
  235. 聪慧方花生 聪慧方花生
  236. 大叔啊 大叔啊
  237. 故意爱背包 故意爱背包
  238. 故意爱背包 故意爱背包
  239. 雪白打枫叶 雪白打枫叶
  240. 黄豆复杂 黄豆复杂
  241. 专一心情 专一心情
  242. 剑心 剑心
  243. 雨耍酷 雨耍酷
  244. 苹果笑路人 苹果笑路人
  245. 蜜粉优秀 蜜粉优秀

    666

  246. 蜜粉优秀 蜜粉优秀

    666

  247. 摩托优美 摩托优美
  248. 剑心 剑心
  249. 秋天难过 秋天难过
  250. 早晨眯眯眼 早晨眯眯眼
  251. 大神陶醉 大神陶醉

    6

  252. 美满闻红酒 美满闻红酒
  253. 剑心 剑心
  254. 醉熏打小兔子 醉熏打小兔子
  255. 早晨眯眯眼 早晨眯眯眼

    To create a public link, set `share=True` in `launch()`. save path: ./output_long/debug/720-1bi1 2024-10-25 16:56:08.5048404 [E:onnxruntime:Default, provider_bridge_ort.cc:1744 onnxruntime::TryGetProviderInfo_CUDA] C:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1426 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll" *************** EP Error *************** EP Error C:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:866 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported. when using ['CUDAExecutionProvider', 'CPUExecutionProvider'] Falling back to ['CUDAExecutionProvider', 'CPUExecutionProvider'] and retrying. **************************************** 2024-10-25 16:56:08.7958579 [E:onnxruntime:Default, provider_bridge_ort.cc:1744 onnxruntime::TryGetProviderInfo_CUDA] C:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1426 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll" Traceback (most recent call last): File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 419, in __init__ self._create_inference_session(providers, provider_options, disabled_optimizers) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 483, in _create_inference_session sess.initialize_session(providers, provider_options, disabled_optimizers) RuntimeError: C:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:866 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported. The above exception was the direct cause of the following exception: Traceback (most recent call last): File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\queueing.py", line 622, in process_events response = await route_utils.call_process_api( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\route_utils.py", line 323, in call_process_api output = await app.get_blocks().process_api( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\blocks.py", line 2014, in process_api result = await self.call_function( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\blocks.py", line 1567, in call_function prediction = await anyio.to_thread.run_sync( # type: ignore File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\anyio\to_thread.py", line 56, in run_sync return await get_async_backend().run_sync_in_worker_thread( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\anyio\_backends\_asyncio.py", line 2441, in run_sync_in_worker_thread return await future File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\anyio\_backends\_asyncio.py", line 943, in run result = context.run(func, *args) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\utils.py", line 846, in wrapper response = f(*args, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\utils.py", line 846, in wrapper response = f(*args, **kwargs) File "app.py", line 37, in app.predict File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\scripts\inference_long.py", line 210, in inference_process with ImageProcessor(img_size, face_analysis_model_path) as image_processor: File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\hallo\datasets\image_processor.py", line 100, in __init__ self.face_analysis = FaceAnalysis( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\app\face_analysis.py", line 31, in __init__ model = model_zoo.get_model(onnx_file, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\model_zoo\model_zoo.py", line 96, in get_model model = router.get_model(providers=providers, provider_options=provider_options) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\model_zoo\model_zoo.py", line 40, in get_model session = PickableInferenceSession(self.onnx_file, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\model_zoo\model_zoo.py", line 25, in __init__ super().__init__(model_path, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 432, in __init__ raise fallback_error from e File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 427, in __init__ self._create_inference_session(self._fallback_providers, None) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 483, in _create_inference_session sess.initialize_session(providers, provider_options, disabled_optimizers) RuntimeError: C:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:866 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.

  256. 芝麻内向 芝麻内向
  257. 芝麻内向 芝麻内向
  258. 剑心 剑心
  259. 手机慈祥 手机慈祥
  260. 剑心 剑心
  261. 和谐给苗条 和谐给苗条

    WARNING[XFORMERS]: xFormers can't load C++/CUDA extensions. xFormers was built for: PyTorch 2.2.2+cu121 with CUDA 1201 (you have 2.2.2+cu118) Python 3.10.11 (you have 3.10.15) Please reinstall xformers (see https://github.com/facebookresearch/xformers#installing-xformers) Memory-efficient attention, SwiGLU, sparse and more won't be available. Set XFORMERS_MORE_DETAILS=1 for more details D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\pydub\utils.py:170: RuntimeWarning: Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work warn("Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work", RuntimeWarning) save path: ./output/1 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\1k3d68.onnx landmark_3d_68 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\2d106det.onnx landmark_2d_106 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\genderage.onnx genderage ['None', 3, 96, 96] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\glintr100.onnx recognition ['None', 3, 112, 112] 127.5 127.5 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\scrfd_10g_bnkps.onnx detection [1, 3, '?', '?'] 127.5 128.0 set det-size: (640, 640) WARNING: All log messages before absl::InitializeLog() is called are written to STDERR W0000 00:00:1729764998.540941 34172 face_landmarker_graph.cc:174] Sets FaceBlendshapesGraph acceleration to xnnpack by default. INFO: Created TensorFlow Lite XNNPACK delegate for CPU. W0000 00:00:1729764998.554655 32040 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. W0000 00:00:1729764998.562839 19228 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. Processed and saved: ./output/1\1_sep_background.png Processed and saved: ./output/1\1_sep_face.png Some weights of Wav2VecModel were not initialized from the model checkpoint at ./pretrained_models/wav2vec/wav2vec2-base-960h and are newly initialized: ['wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original0', 'wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original1', 'wav2vec2.masked_spec_embed'] You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference. 2024-10-24 18:16:38,957 - INFO - separator - Separator version 0.17.2 instantiating with output_dir: ./output/1\audio_preprocess, output_format: WAV 2024-10-24 18:16:38,958 - INFO - separator - Operating System: Windows 10.0.19045 2024-10-24 18:16:38,959 - INFO - separator - System: Windows Node: DESKTOP-BNJA2AM Release: 10 Machine: AMD64 Proc: AMD64 Family 23 Model 113 Stepping 0, AuthenticAMD 2024-10-24 18:16:38,959 - INFO - separator - Python Version: 3.10.15 2024-10-24 18:16:38,959 - INFO - separator - PyTorch Version: 2.2.2+cu118 2024-10-24 18:16:38,961 - ERROR - separator - FFmpeg is not installed. Please install FFmpeg to use this package. Traceback (most recent call last): File "D:\BaiduNetdiskDownload\hallo2\scripts\inference_long.py", line 508, in <module> save_path = inference_process(command_line_args) File "D:\BaiduNetdiskDownload\hallo2\scripts\inference_long.py", line 235, in inference_process audio_processor = AudioProcessor( File "D:\BaiduNetdiskDownload\hallo2\hallo\datasets\audio_processor.py", line 61, in __init__ self.audio_separator = Separator( File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\audio_separator\separator\separator.py", line 140, in __init__ self.setup_accelerated_inferencing_device() File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\audio_separator\separator\separator.py", line 147, in setup_accelerated_inferencing_device self.check_ffmpeg_installed() File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\audio_separator\separator\separator.py", line 173, in check_ffmpeg_installed ffmpeg_version_output = subprocess.check_output(["ffmpeg", "-version"], text=True) File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 421, in check_output return run(*popenargs, stdout=PIPE, timeout=timeout, check=True, File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 503, in run with Popen(*popenargs, **kwargs) as process: File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 971, in __init__ self._execute_child(args, executable, preexec_fn, close_fds, File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 1456, in _execute_child hp, ht, pid, tid = _winapi.CreateProcess(executable, args, FileNotFoundError: [WinError 2] 系统找不到指定的文件。 Press any key to continue . . . 这是啥情况啊

  262. 剑心 剑心
  263. 手机慈祥 手机慈祥
  264. 纸鹤苹果 纸鹤苹果
  265. 舞蹈幽默 舞蹈幽默
  266. 小兔子心灵美 小兔子心灵美
  267. 玉米微笑 玉米微笑
  268. 兴奋向水蜜桃 兴奋向水蜜桃
  269. 剑心 剑心
  270. 阿飞 阿飞
  271. 剑心 剑心
  272. 荔枝活泼 荔枝活泼

    666

  273. 雨彪壮 雨彪壮

    666

  274. 土豪扯中心 土豪扯中心
  275. 小蚂蚁笨笨 小蚂蚁笨笨

    666

  276. 耳机单纯 耳机单纯

    666

  277. 聪慧方花生 聪慧方花生
  278. 欣喜笑紫菜 欣喜笑紫菜
  279. 剑心 剑心
  280. 开放演变大叔 开放演变大叔
  281. 剑心 剑心
  282. 剑心 剑心
  283. 自行车文艺 自行车文艺
  284. 高兴踢茉莉 高兴踢茉莉

    老大,这是什么情况 save path: ./output/1 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\1k3d68.onnx landmark_3d_68 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\2d106det.onnx landmark_2d_106 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\genderage.onnx genderage ['None', 3, 96, 96] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\glintr100.onnx recognition ['None', 3, 112, 112] 127.5 127.5 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\scrfd_10g_bnkps.onnx detection [1, 3, '?', '?'] 127.5 128.0 set det-size: (640, 640) WARNING: All log messages before absl::InitializeLog() is called are written to STDERR W0000 00:00:1729437915.446654 9128 face_landmarker_graph.cc:174] Sets FaceBlendshapesGraph acceleration to xnnpack by default. INFO: Created TensorFlow Lite XNNPACK delegate for CPU. W0000 00:00:1729437915.454916 3604 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. W0000 00:00:1729437915.462255 4936 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. Processed and saved: ./output/1\1_sep_background.png Processed and saved: ./output/1\1_sep_face.png Some weights of Wav2VecModel were not initialized from the model checkpoint at ./pretrained_models/wav2vec/wav2vec2-base-960h and are newly initialized: ['wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original0', 'wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original1', 'wav2vec2.masked_spec_embed'] You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference. 2024-10-20 23:25:15,746 - INFO - separator - Separator version 0.17.2 instantiating with output_dir: ./output/1\audio_preprocess, output_format: WAV 2024-10-20 23:25:15,747 - INFO - separator - Operating System: Windows 10.0.19045 2024-10-20 23:25:15,747 - INFO - separator - System: Windows Node: DESKTOP-07OKCTL Release: 10 Machine: AMD64 Proc: Intel64 Family 6 Model 151 Stepping 2, GenuineIntel 2024-10-20 23:25:15,747 - INFO - separator - Python Version: 3.10.15 2024-10-20 23:25:15,748 - INFO - separator - PyTorch Version: 2.2.2+cu118 2024-10-20 23:25:15,748 - ERROR - separator - FFmpeg is not installed. Please install FFmpeg to use this package. Traceback (most recent call last): File "H:\gongju\11\scripts\inference_long.py", line 508, in <module> save_path = inference_process(command_line_args) File "H:\gongju\11\scripts\inference_long.py", line 235, in inference_process audio_processor = AudioProcessor( File "H:\gongju\11\hallo\datasets\audio_processor.py", line 61, in __init__ self.audio_separator = Separator( File "H:\gongju\11\jian27\lib\site-packages\audio_separator\separator\separator.py", line 140, in __init__ self.setup_accelerated_inferencing_device() File "H:\gongju\11\jian27\lib\site-packages\audio_separator\separator\separator.py", line 147, in setup_accelerated_inferencing_device self.check_ffmpeg_installed() File "H:\gongju\11\jian27\lib\site-packages\audio_separator\separator\separator.py", line 173, in check_ffmpeg_installed ffmpeg_version_output = subprocess.check_output(["ffmpeg", "-version"], text=True) File "H:\gongju\11\jian27\lib\subprocess.py", line 421, in check_output return run(*popenargs, stdout=PIPE, timeout=timeout, check=True, File "H:\gongju\11\jian27\lib\subprocess.py", line 503, in run with Popen(*popenargs, **kwargs) as process: File "H:\gongju\11\jian27\lib\subprocess.py", line 971, in __init__ self._execute_child(args, executable, preexec_fn, close_fds, File "H:\gongju\11\jian27\lib\subprocess.py", line 1456, in _execute_child hp, ht, pid, tid = _winapi.CreateProcess(executable, args, FileNotFoundError: [WinError 2] 系统找不到指定的文件。 Press any key to continue . . . 老大,这是什么情况?

  285. 芬达 芬达
  286. 母鸡傲娇 母鸡傲娇
  287. 跳跃的猫咪 跳跃的猫咪
  288. 欣慰的机器猫 欣慰的机器猫

    666

  289. 剑心 剑心
  290. 手链粗暴 手链粗暴
  291. 手链粗暴 手链粗暴
  292. 暴躁外套 暴躁外套
  293. 剑心 剑心
  294. 外向给曲奇 外向给曲奇
  295. 哑铃花痴 哑铃花痴
  296. 哑铃花痴 哑铃花痴
  297. 剑心 剑心
  298. 剑心 剑心
  299. 墨镜称心 墨镜称心
  300. 伶俐有黑猫 伶俐有黑猫
  301. 迅速雪糕 迅速雪糕
  302. 墨镜称心 墨镜称心
  303. 醉熏打小兔子 醉熏打小兔子
  304. 冒险王18 冒险王18
  305. 小懒猪可靠 小懒猪可靠

    666

  306. 摩托帅气 摩托帅气
  307. 人生暴躁 人生暴躁
  308. 剑心 剑心
  309. 枫叶热情 枫叶热情
  310. icolor icolor
  311. 胡萝卜结实 胡萝卜结实
  312. 剑心 剑心
  313. 超短裙忧郁 超短裙忧郁
  314. 鳗鱼演变百褶裙 鳗鱼演变百褶裙
  315. 糊涂闻芒果 糊涂闻芒果
  316. 聪慧方花生 聪慧方花生
  317. 小白菜着急 小白菜着急
  318. 聪慧方花生 聪慧方花生
  319. 小白菜着急 小白菜着急
  320. 哭泣笑自行车 哭泣笑自行车
  321. 睫毛聪明 睫毛聪明
  322. 雨酷炫 雨酷炫
  323. 热心与小兔子 热心与小兔子
  324. 无语与红酒 无语与红酒
  325. 无语与红酒 无语与红酒
  326. heibao1999 heibao1999
  327. 安静保卫小白菜 安静保卫小白菜
  328. silentfox silentfox
  329. 大象飘逸 大象飘逸
  330. 刺猬风趣 刺猬风趣
  331. 剑心 剑心
  332. 镜子耍酷 镜子耍酷
  333. 项链感性 项链感性

    666

  334. 酸奶腼腆 酸奶腼腆

    --------更多AI工具,开源免费软件 请前往 https://www.jian27.com-------- 请关注我的微信公众号 剑二十七 "HF_ENDPOINT: !HF_ENDPOINT!" "NO_PROXY: !no_proxy!" [main 2024-10-17T08:35:45.235Z] update#setState idle [15868:1017/163546.985:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [15868:1017/163547.084:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [15868:1017/163549.130:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [15868:1017/163549.227:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [main 2024-10-17T08:36:15.245Z] update#setState checking for updates [main 2024-10-17T08:36:15.255Z] update#setState downloading [main 2024-10-17T08:36:31.544Z] Extension host with pid 2464 exited with code: 0, signal: unknown. 2024-10-17 16:36:47.430 | INFO | __main__:<module>:523 - Loading Llama model... F:\fish-speech\fish_speech\models\text2semantic\llama.py:370: FutureWarning: You are using `torch.load` with `weights_only=False` (the current default value), which uses the default pickle module implicitly. It is possible to construct malicious pickle data which will execute arbitrary code during unpickling (See https://github.com/pytorch/pytorch/blob/main/SECURITY.md#untrusted-models for more details). In a future release, the default value for `weights_only` will be flipped to `True`. This limits the functions that could be executed during unpickling. Arbitrary objects will no longer be allowed to be loaded via this mode unless they are explicitly allowlisted by the user via `torch.serialization.add_safe_globals`. We recommend you start setting `weights_only=True` for any use case where you don't have full control of the loaded file. Please open an issue on GitHub for any issues related to this experimental feature. weights = torch.load( 2024-10-17 16:36:55.762 | INFO | tools.llama.generate:load_model:347 - Restored model from checkpoint 2024-10-17 16:36:55.762 | INFO | tools.llama.generate:load_model:351 - Using DualARTransformer 2024-10-17 16:36:55.762 | INFO | __main__:<module>:530 - Llama model loaded, loading VQ-GAN model... F:\fish-speech\jian27\lib\site-packages\vector_quantize_pytorch\vector_quantize_pytorch.py:457: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead. @autocast(enabled = False) F:\fish-speech\jian27\lib\site-packages\vector_quantize_pytorch\vector_quantize_pytorch.py:642: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead. @autocast(enabled = False) F:\fish-speech\jian27\lib\site-packages\vector_quantize_pytorch\finite_scalar_quantization.py:162: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead. @autocast(enabled = False) F:\fish-speech\tools\vqgan\inference.py:26: FutureWarning: You are using `torch.load` with `weights_only=False` (the current default value), which uses the default pickle module implicitly. It is possible to construct malicious pickle data which will execute arbitrary code during unpickling (See https://github.com/pytorch/pytorch/blob/main/SECURITY.md#untrusted-models for more details). In a future release, the default value for `weights_only` will be flipped to `True`. This limits the functions that could be executed during unpickling. Arbitrary objects will no longer be allowed to be loaded via this mode unless they are explicitly allowlisted by the user via `torch.serialization.add_safe_globals`. We recommend you start setting `weights_only=True` for any use case where you don't have full control of the loaded file. Please open an issue on GitHub for any issues related to this experimental feature. state_dict = torch.load( 2024-10-17 16:36:57.598 | INFO | tools.vqgan.inference:load_model:44 - Loaded model: <All keys matched successfully> 2024-10-17 16:36:57.598 | INFO | __main__:<module>:538 - Decoder model loaded, warming up... 2024-10-17 16:36:57.598 | INFO | tools.api:encode_reference:117 - No reference audio provided 2024-10-17 16:36:57.644 | INFO | tools.llama.generate:generate_long:432 - Encoded text: Hello, world! 2024-10-17 16:36:57.644 | INFO | tools.llama.generate:generate_long:450 - Generating sentence 1/1 of sample 1/1 F:\fish-speech\fish_speech\models\text2semantic\llama.py:655: UserWarning: 1Torch was not compiled with flash attention. (Triggered internally at C:\actions-runner\_work\pytorch\pytorch\builder\windows\pytorch\aten\src\ATen\native\transformers\cuda\sdp_utils.cpp:555.) y = F.scaled_dot_product_attention( 0%| | 0/4080 [00:00<?, ?it/s]F:\fish-speech\jian27\lib\contextlib.py:103: FutureWarning: `torch.backends.cuda.sdp_kernel()` is deprecated. In the future, this context manager will be removed. Please see `torch.nn.attention.sdpa_kernel()` for the new context manager, with updated signature. self.gen = func(*args, **kwds) 11%|████████▉ | 462/4080 [00:46<06:02, 9.99it/s] 2024-10-17 16:37:44.321 | INFO | tools.llama.generate:generate_long:505 - Generated 464 tokens in 46.68 seconds, 9.94 tokens/sec 2024-10-17 16:37:44.321 | INFO | tools.llama.generate:generate_long:508 - Bandwidth achieved: 4.87 GB/s 2024-10-17 16:37:44.321 | INFO | tools.llama.generate:generate_long:513 - GPU Memory used: 1.42 GB 2024-10-17 16:37:44.337 | INFO | tools.api:decode_vq_tokens:128 - VQ features: torch.Size([4, 463]) 2024-10-17 16:37:46.238 | INFO | __main__:<module>:555 - Warming up done, launching the web UI... Running on local URL: http://127.0.0.1:7860 To create a public link, set `share=True` in `launch()`. F:\fish-speech\jian27\lib\site-packages\gradio\analytics.py:106: UserWarning: IMPORTANT: You are using gradio version 4.44.0, however version 5.0.1 is available, please upgrade. -------- warnings.warn( funasr version: 1.1.12. Check update of funasr, and it would cost few times. You may disable it by set `disable_update=True` in AutoModel You are using the latest version of funasr-1.1.12 2024-10-17 16:38:36,320 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-10-17 16:38:36,320 - modelscope - INFO - Use user-specified model revision: master F:\fish-speech\jian27\lib\site-packages\funasr\train_utils\load_pretrained_model.py:39: FutureWarning: You are using `torch.load` with `weights_only=False` (the current default value), which uses the default pickle module implicitly. It is possible to construct malicious pickle data which will execute arbitrary code during unpickling (See https://github.com/pytorch/pytorch/blob/main/SECURITY.md#untrusted-models for more details). In a future release, the default value for `weights_only` will be flipped to `True`. This limits the functions that could be executed during unpickling. Arbitrary objects will no longer be allowed to be loaded via this mode unless they are explicitly allowlisted by the user via `torch.serialization.add_safe_globals`. We recommend you start setting `weights_only=True` for any use case where you don't have full control of the loaded file. Please open an issue on GitHub for any issues related to this experimental feature. ori_state = torch.load(path, map_location=map_location) funasr version: 1.1.12. Check update of funasr, and it would cost few times. You may disable it by set `disable_update=True` in AutoModel You are using the latest version of funasr-1.1.12 2024-10-17 16:38:44,795 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-10-17 16:38:44,796 - modelscope - INFO - Use user-specified model revision: master Traceback (most recent call last): File "F:\fish-speech\jian27\lib\site-packages\gradio\queueing.py", line 536, in process_events response = await route_utils.call_process_api( File "F:\fish-speech\jian27\lib\site-packages\gradio\route_utils.py", line 322, in call_process_api output = await app.get_blocks().process_api( File "F:\fish-speech\jian27\lib\site-packages\gradio\blocks.py", line 1935, in process_api result = await self.call_function( File "F:\fish-speech\jian27\lib\site-packages\gradio\blocks.py", line 1520, in call_function prediction = await anyio.to_thread.run_sync( # type: ignore File "F:\fish-speech\jian27\lib\site-packages\anyio\to_thread.py", line 56, in run_sync return await get_async_backend().run_sync_in_worker_thread( File "F:\fish-speech\jian27\lib\site-packages\anyio\_backends\_asyncio.py", line 2177, in run_sync_in_worker_thread return await future File "F:\fish-speech\jian27\lib\site-packages\anyio\_backends\_asyncio.py", line 859, in run result = context.run(func, *args) File "F:\fish-speech\jian27\lib\site-packages\gradio\utils.py", line 826, in wrapper response = f(*args, **kwargs) File "F:\fish-speech\tools\webui.py", line 264, in inference_wrapper result = inference_with_auto_rerank( File "F:\fish-speech\tools\webui.py", line 193, in inference_with_auto_rerank zh_model, en_model = load_model() File "F:\fish-speech\tools\auto_rerank.py", line 20, in load_model en_model = AutoModel( File "F:\fish-speech\jian27\lib\site-packages\funasr\auto\auto_model.py", line 125, in __init__ model, kwargs = self.build_model(**kwargs) File "F:\fish-speech\jian27\lib\site-packages\funasr\auto\auto_model.py", line 222, in build_model tokenizer = tokenizer_class(**tokenizer_conf) File "F:\fish-speech\jian27\lib\site-packages\funasr\tokenizer\sentencepiece_tokenizer.py", line 23, in __init__ self._build_sentence_piece_processor() File "F:\fish-speech\jian27\lib\site-packages\funasr\tokenizer\sentencepiece_tokenizer.py", line 32, in _build_sentence_piece_processor self.sp.load(self.bpemodel) File "F:\fish-speech\jian27\lib\site-packages\sentencepiece\__init__.py", line 961, in Load return self.LoadFromFile(model_file) File "F:\fish-speech\jian27\lib\site-packages\sentencepiece\__init__.py", line 316, in LoadFromFile return _sentencepiece.SentencePieceProcessor_LoadFromFile(self, arg) OSError: Not found: "C:\Users\皇甫\.cache\modelscope\hub\iic\speech_paraformer-large-vad-punc_asr_nat-en-16k-common-vocab10020\bpe.model": No such file or directory Error #2

  335. 剑心 剑心
  336. 剑心 剑心
  337. 俏皮打衬衫 俏皮打衬衫
  338. 无心爱冬日 无心爱冬日
  339. 导师危机 导师危机
  340. 秀丽笑鞋子 秀丽笑鞋子
  341. 冷风顺心 冷风顺心
  342. 聪慧给香烟 聪慧给香烟
  343. 称心就发夹 称心就发夹
  344. 水蜜桃单纯 水蜜桃单纯
  345. 黑米俏皮 黑米俏皮
  346. 绿草迅速 绿草迅速
  347. 剑心 剑心
  348. 剑心 剑心
  349. 冒险王18 冒险王18
  350. 紫色土豆 紫色土豆
  351. 野性的呼唤 野性的呼唤
  352. 野牛 野牛
  353. 失眠用玫瑰 失眠用玫瑰
  354. 老虎高兴 老虎高兴
  355. 玉米落后 玉米落后
  356. 蜡烛儒雅 蜡烛儒雅
  357. fstchsh fstchsh
  358. 小笼包无心 小笼包无心
  359. 小土豆秀丽 小土豆秀丽
  360. 剑心 剑心
  361. 麦片震动 麦片震动
  362. 合适有网络 合适有网络
  363. 合适有网络 合适有网络
  364. 糊涂闻芒果 糊涂闻芒果
  365. 潇洒保卫小虾米 潇洒保卫小虾米
  366. 小笼包危机 小笼包危机
  367. 强健和啤酒 强健和啤酒
  368. 强健和啤酒 强健和啤酒
  369. 剑心 剑心
  370. 剑心 剑心
  371. 歪比巴卜 歪比巴卜
  372. 歪比巴卜 歪比巴卜
  373. 会撒娇就红牛 会撒娇就红牛
  374. 会撒娇就红牛 会撒娇就红牛
  375. 电脑眯眯眼 电脑眯眯眼
  376. 电脑眯眯眼 电脑眯眯眼
  377. 剑心 剑心
  378. 剑心 剑心
  379. 会撒娇就红牛 会撒娇就红牛
  380. 无辜等于大炮 无辜等于大炮
  381. 彩色就奇迹 彩色就奇迹
  382. 往事细心 往事细心
  383. 剑心 剑心
  384. 墨镜机灵 墨镜机灵
  385. 墨镜机灵 墨镜机灵
  386. 墨镜机灵 墨镜机灵
  387. 墨镜机灵 墨镜机灵
  388. 剑心 剑心
  389. 水蜜桃单纯 水蜜桃单纯
  390. 闪闪向微笑 闪闪向微笑
  391. 灵巧演变火 灵巧演变火
  392. 黑猫感动 黑猫感动
  393. 迅速雪糕 迅速雪糕
  394. 聪慧方花生 聪慧方花生
  395. 聪慧方花生 聪慧方花生
  396. 聪慧方花生 聪慧方花生
  397. 聪慧方花生 聪慧方花生
  398. 剑心 剑心
  399. 冒险王18 冒险王18
  400. 雪碧靓丽 雪碧靓丽
  401. 剑心 剑心
  402. 指甲油机灵 指甲油机灵
  403. 剑心 剑心
  404. 指甲油机灵 指甲油机灵
  405. 指甲油机灵 指甲油机灵
  406. 机灵保卫百褶裙 机灵保卫百褶裙
  407. 店员迷路 店员迷路
  408. 乌冬面懦弱 乌冬面懦弱
  409. 乌冬面懦弱 乌冬面懦弱
  410. 红满堂 红满堂
  411. 文静与草莓 文静与草莓
  412. 蛋挞清秀 蛋挞清秀
  413. 红牛勤劳 红牛勤劳
  414. 面包优雅 面包优雅
  415. 灵巧演变火 灵巧演变火
  416. 灵巧演变火 灵巧演变火
  417. 香水欣慰 香水欣慰
  418. 指甲油机灵 指甲油机灵
  419. 雪白踢大雁 雪白踢大雁
  420. 孝顺与苗条 孝顺与苗条
  421. 小蚂蚁苗条 小蚂蚁苗条
  422. 悟空可爱 悟空可爱
  423. 迅速踢芒果 迅速踢芒果
  424. 幽默等于面包 幽默等于面包
  425. JHCM JHCM
  426. 云朵爱撒娇 云朵爱撒娇
  427. 灵巧演变火 灵巧演变火
  428. 钢笔大胆 钢笔大胆
  429. 潇洒的秀发 潇洒的秀发
  430. 剑心 剑心
  431. 电脑眯眯眼 电脑眯眯眼
  432. 幽默等于面包 幽默等于面包
  433. 舞蹈可靠 舞蹈可靠
  434. 自信给战斗机 自信给战斗机
  435. 剑心 剑心
  436. 剑心 剑心
  437. 睫毛阳光 睫毛阳光
  438. 枫叶热情 枫叶热情
  439. 剑心 剑心
  440. 枫叶热情 枫叶热情
  441. 枫叶热情 枫叶热情
  442. 害羞扯摩托 害羞扯摩托
  443. 黑猫感动 黑猫感动
  444. 中心长情 中心长情
  445. 发夹勤奋 发夹勤奋
  446. 末日后飞升成仙的男人 末日后飞升成仙的男人
  447. 剑心 剑心
  448. 末日后飞升成仙的男人 末日后飞升成仙的男人
  449. 御姐优雅 御姐优雅
  450. 潇洒的秀发 潇洒的秀发
  451. 潇洒的秀发 潇洒的秀发
  452. 潇洒的秀发 潇洒的秀发
  453. 潇洒的秀发 潇洒的秀发
  454. 害怕演变蛋挞 害怕演变蛋挞
  455. 害怕演变蛋挞 害怕演变蛋挞
  456. 害怕演变蛋挞 害怕演变蛋挞
  457. 剑心 剑心
  458. 激昂方金针菇 激昂方金针菇
  459. 激昂方金针菇 激昂方金针菇
  460. 激昂方金针菇 激昂方金针菇
  461. 末日后飞升成仙的男人 末日后飞升成仙的男人
  462. 魔镜无奈 魔镜无奈
  463. 末日后飞升成仙的男人 末日后飞升成仙的男人
  464. 墨镜机灵 墨镜机灵
  465. 墨镜机灵 墨镜机灵
  466. 传统与宝马 传统与宝马
  467. xwgod xwgod
  468. 传统与宝马 传统与宝马
  469. 身影活泼 身影活泼
  470. 寒风怕孤单 寒风怕孤单
  471. 现实给朋友 现实给朋友
  472. 现实给朋友 现实给朋友
  473. 海燕活泼 海燕活泼
  474. icolor icolor
  475. 合适与小熊猫 合适与小熊猫
  476. 身影纯情 身影纯情
  477. 蜡烛甜甜 蜡烛甜甜
  478. 店员跳跃 店员跳跃
  479. 草莓文艺 草莓文艺
  480. 夕阳健壮 夕阳健壮
  481. 夕阳健壮 夕阳健壮
  482. 大门从容 大门从容
  483. 聪慧方花生 聪慧方花生
  484. 哭泣笑篮球 哭泣笑篮球
  485. 稳重歌曲 稳重歌曲
  486. 剑心 剑心
  487. 小白菜着急 小白菜着急
  488. 手链舒适 手链舒适
  489. 外套敏感 外套敏感
  490. 茉莉傻傻 茉莉傻傻
  491. 大叔冷艳 大叔冷艳
  492. 雪白踢大雁 雪白踢大雁
  493. 小松鼠追寻 小松鼠追寻
  494. 彩色踢便当 彩色踢便当
  495. 聪慧方花生 聪慧方花生
  496. 聪慧方花生 聪慧方花生
  497. 毛衣刻苦 毛衣刻苦
  498. 宝骅 宝骅
  499. 东南亚的狗腿 东南亚的狗腿
  500. 仙人掌笑点低 仙人掌笑点低
  501. 聪慧方花生 聪慧方花生
  502. 聪慧方花生 聪慧方花生
  503. 可靠笑麦片 可靠笑麦片
  504. 墨镜机灵 墨镜机灵
  505. 健壮扯饼干 健壮扯饼干
  506. 翅膀无情 翅膀无情
  507. 聪慧方花生 聪慧方花生
  508. 聪慧方花生 聪慧方花生
  509. 满意的毛衣 满意的毛衣
  510. 聪慧方花生 聪慧方花生
  511. 路人深情 路人深情
  512. 剑心 剑心
  513. 冷风细腻 冷风细腻
  514. 剑心 剑心
  515. 火星上打小兔子 火星上打小兔子
  516. 聪慧方花生 聪慧方花生
  517. 聪慧方花生 聪慧方花生

    3

  518. 机器猫健忘 机器猫健忘

相关推荐:

我要评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

评论已关闭