Board logo

标题: [教程] 想把日本艺人老婆训练成AI模型?想给图片里的人物穿/脱衣?想修复AI生成的图片?全部在线搞 ... [打印本页]

作者: 内力煮火锅    时间: 2023-4-9 19:00     标题: 想把日本艺人老婆训练成AI模型?想给图片里的人物穿/脱衣?想修复AI生成的图片?全部在线搞 ...

为避免你在公共场所打开此贴尴尬,不穿衣服的作品在本教程靠后的位置。

最终成品示例:

[attach]3948331[/attach]


建议先完整看一遍教程视频,再阅读完下方的教程文字,然后再回到视频开头,结合着视频和文字教程一步一步操作。

//player.bilibili.com/player.html?aid=269387967&bvid=BV1xc41157ez&cid=1079824404&page=1

视频一开始提到的训练模型的脚本在这个链接里面:
https://github.com/Linaqruf/kohya-trainer

训练模型会花费不短的时间,为了防止训练到一半就被谷歌切断资源,需要一直保持页面活跃。

为了省事,可以在开始训练模型以后,在训练模型的页面按下键盘上的F12,进入开发者模式。

并在控制台(console)输入如下代码:
复制内容到剪贴板
代码:
function ConnectButton(){
  console.log("Connect pushed");
  document.querySelector("#top-toolbar > colab-connectbutton").shadowRoot.querySelector("#connect").click()
}
setInterval(ConnectButton,60000);
并按回车运行,出现数字即为成功,它会自动每分钟尝试重连一次。

[attach]3948332[/attach]

这一步不会也没关系,自己费心盯一下网页,别让它断联了就好了。


全部按照视频操作完以后,最后就可以在谷歌云盘里找到训练好的模型。


如果是要本地使用的话,直接下载下来并放进stable diffusion webUI的放Lora模型的文件夹里就好了。


如果是要在线使用新训练出来的模型的话,可以按照如下步骤操作:
(下面的内容开始看不懂了的话,请先去学习入门教程:[bcolor=viewthread.php?tid=11590974&page=1#pid111725007,Magenta] 0. 新手零基础入门教程:如何不用显卡做出一张街头露出的AI图[13P][/bcolor])

1. 登录https://colab.research.google.com/

2. 在Colab的设置里打开GPU

3. 运行如下指令:
复制内容到剪贴板
代码:
from google.colab import drive
drive.mount('/content/drive')
4. 指令运行完以后,就可以在Colab里访问谷歌云盘的文件了。找到并复制训练好的模型文件的路径。
(找到训练好的模型文件的方法在视频5:00处,复制某个文件的路径的方法在视频的2:15处。也就是说,你要用2:15处教的方法去复制5:00处找到的那个文件的路径。)

5. 用复制来的文件的路径替换掉下面的安装指令中的全部汉字(只替换掉汉字,除汉字外的全部标点符号、字母和数字都不要改动):
复制内容到剪贴板
代码:
!pip install --upgrade fastapi==0.90.1
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
!git clone https://github.com/yfszzx/stable-diffusion-webui-images-browser /content/stable-diffusion-webui/extensions/stable-diffusion-webui-images-browser
!curl -Lo chilloutmixni.safetensors https://huggingface.co/nolanaatama/chomni/resolve/main/chomni.safetensors
!curl -Lo ulzzang-6500.pt https://huggingface.co/nolanaatama/chomni/resolve/main/ulzzang-6500.pt
!curl -Lo koreanDollLikeness_v15.safetensors https://huggingface.co/amornlnw7/koreanDollLikeness_v15/resolve/main/koreanDollLikeness_v15.safetensors
!mkdir /content/stable-diffusion-webui/models/Lora
!mv "/content/koreanDollLikeness_v15.safetensors" "/content/stable-diffusion-webui/models/Lora"
!mv "/content/chilloutmixni.safetensors" "/content/stable-diffusion-webui/models/Stable-diffusion"
!mv "/content/ulzzang-6500.pt" "/content/stable-diffusion-webui/embeddings"
!cp "用复制来的文件的路径替换掉此处的汉字" "/content/stable-diffusion-webui/models/Lora"
%cd /content/stable-diffusion-webui
!git checkout 91c8d0d
%pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu117
!COMMANDLINE_ARGS="--share --disable-safe-unpickle --no-half-vae --xformers --reinstall-xformers --enable-insecure-extension-access" REQS_FILE="requirements.txt" python launch.py
6. 将修改好的安装指令粘贴进Colab并运行。

7. 最后运行完以后,会出现stable diffusion webUI的链接,点开就能使用了。

8. 用你新训练好的模型的文件名换掉下面的提示词中的全部汉字
(只替换掉汉字,除汉字外的全部标点符号、字母和数字都不要改动)
(模型的文件名就是一开始训练前在设定阶段你给模型起的名字)
(如果忘记了,就到你的谷歌网盘里找一下新生成的模型文件,看一下文件名)
(一般文件名是XXX.safetensors,这里只需要用到XXX的部分)
复制内容到剪贴板
代码:
<lora:模型的文件名:0.7>, <lora:koreanDollLikeness_v15:0.3>, best quality, masterpiece, illustration, an extremely delicate and beautiful, extremely detailed, CG, unity, 8k wallpaper, Amazing, finely detail, masterpiece, best quality, official art, extremely detailed CG unity 8k wallpaper, absurdres, incredibly absurdres, huge filesize, ultra-detailed, highres, extremely detailed, beautiful detailed girl, extremely detailed eyes and face, beautiful detailed eyes, ((smiling)), full-body shot, light on face, 1girl, outdoors
自己训练的模型难免有这样那样的毛病,所以我在提示词里把自己的模型的权重调到了0.7,同时使用了0.3个权重的一个以前用的很顺手的lora模型:koreanDollLikeness

9. 把改好的提示词放到它该去的地方

10. 把下面的负面提示词也放到它该去的地方:
复制内容到剪贴板
代码:
sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, bad anatomy,(long hair:1.4),DeepNegative,(fat:1.2),facing away, looking away,tilted head, {Multiple people}, lowres,bad anatomy,bad hands, text, error, missing fingers,extra digit, fewer digits, cropped, worstquality, low quality, normal quality,jpegartifacts,signature, watermark, username,blurry,bad feet,cropped,poorly drawn hands,poorly drawn face,mutation,deformed,worst quality,low quality,normal quality,jpeg artifacts,signature,watermark,extra fingers,fewer digits,extra limbs,extra arms,extra legs,malformed limbs,fused fingers,too many fingers,long neck,cross-eyed,mutated hands,polar lowres,bad body,bad proportions,gross proportions,text,error,missing fingers,missing arms,missing legs,extra digit, extra arms, extra leg, extra foot
11. 设置参数,比如:
复制内容到剪贴板
代码:
Steps: 30, Sampler: DPM   SDE Karras, CFG scale: 7, Size: 512x800
12. 出图,效果参见本帖最上面的那张图。


成功出图以后,就可以按照自己的思路来修改提示词、负面提示词和参数了。


我最一开始实验的就是裸露的提示词,但是我们说好了裸露的图片会放到帖子靠后的位置,所以先来两张泳装的:

提示词加上了(cameltoe:1.2), pool, water, bikini

[attach]3948333[/attach]

[attach]3948334[/attach]

可以说脸部还是很成功的,跟我拿来训练的某日本女星还是有几分相似的。
但是手崩得不要不要的,自己训练的模型还是跟那些爆火的模型比不了。
但是正好给我一个机会练习一下用AI修复手部瑕疵(这部分的教程会放在2楼)。


好了,现在开始调教裸露提示词。先换上已经用熟了的这两个裸露提示词:
((nude)), ((spread legs))

[attach]3948338[/attach]


好看是挺好看的,但是跟我训练用的日本女星的相貌还是不够像啊。
把另一个模型去掉,只用自己的模型试试,去掉<lora:koreanDollLikeness_v15:0.3>

[attach]3948339[/attach]


这张挺像的了,再加回另一个模型,然后换个姿势试试。
加回<lora:koreanDollLikeness_v15:0.3>并去掉((spread legs))

[attach]3948340[/attach]


再去掉<lora:koreanDollLikeness_v15:0.3>试试

[attach]3948341[/attach]


再加上<lora:koreanDollLikeness_v15:0.3>试试

[attach]3948368[/attach]


再去掉<lora:koreanDollLikeness_v15:0.3>试试

[attach]3948369[/attach]


再试试穿上汉服并裸露,提示词加上(Hanfu:0.9)
分别加上和去掉<lora:koreanDollLikeness_v15:0.3>各一张

[attach]3948370[/attach]

[attach]3948371[/attach]


感觉单独用自己训练的模型直接出图的话,质量似乎不太稳定,还是和比较成功的模型配合使用比较好。

教程正文结束,下面介绍一些小技巧。

[bbs=viewthread.php?tid=11607215&page=1#pid111815289]2楼介绍如何用AI局部重绘功能修复图片瑕疵。[/bbs]
[bbs=viewthread.php?tid=11607215&page=1#pid111815291]3楼介绍如何用AI局部重绘功能给AI人物脱衣。[/bbs]
[bbs=viewthread.php?tid=11607215&page=1#pid111815294]4楼介绍如何用AI局部重绘功能给AI人物穿衣。[/bbs]

[ 本帖最后由 内力煮火锅 于 2023-4-14 16:04(GMT+8) 编辑 ]
作者: 内力煮火锅    时间: 2023-4-9 19:01     标题: 如何用AI局部重绘功能修复图片瑕疵:

上面有几张图手画崩了,正好拿来当教程:

[attach]3948408[/attach]

如图:

1. 切换到图生图标签。
2. 输入原本的(或自己想改成的)提示词。
3. 输入原本的(或自己想改成的)负面提示词。
4. 切换到局部重绘标签。
5. 把要修复的图拖进来。
6. 选一个跟手部皮肤颜色相近的颜色,可以用里面的取色器。
7. 选择合适的画笔的粗细度。
8. 把画崩的手涂掉。
9. 下面的参数尽量跟原图一致,除非你想改动。
尺寸最好要保持一致,如果实在想换尺寸的话,设置参数的时候最好选择剪裁而不是拉伸,不然人物会变形。
(别的参数如果有不会填的,就保持不变就行,或者也可以看看我修复下面一张图的时候截屏的参数)
10. 出图


修复效果如下:

[attach]3948409[/attach]


再修复一张:

[attach]3948441[/attach]

方法是一样的,不过把涂改的颜色换成了球的蓝色,因为不想重新生成手,只想把多余的手覆盖掉,替换成球。
参数的部分也截图了,基本保持没变。

效果如下:

[attach]3948442[/attach]

[ 本帖最后由 内力煮火锅 于 2023-4-13 20:41(GMT+8) 编辑 ]
作者: 内力煮火锅    时间: 2023-4-9 19:01     标题: 如何用AI局部重绘功能给AI人物脱衣:

以本帖第一图为例,把这张图拖进框里,用同样的方法局部重绘,同样的重绘参数,画图的参数跟原图一切参数都一样,只略微改动提示词:

((smile))改成((nude))

[attach]3948496[/attach]


改成((top off))

[attach]3948497[/attach]


改回((nude))加上((nipples))

[attach]3948498[/attach]


((nude))改成((top off))加上((smile))

[attach]3948499[/attach]


((top off))改成((pink))

[attach]3948500[/attach]

[ 本帖最后由 内力煮火锅 于 2023-4-13 20:44(GMT+8) 编辑 ]
作者: 内力煮火锅    时间: 2023-4-9 19:01     标题: 如何用AI局部重绘功能给AI人物穿衣:

3楼生成的图里面有一张很像我拿来训练的日本女星啊,不行我要给我的前前前老婆穿上衣服,老婆的裸体给你们看一眼就够了,不能多看

方法如下:

[attach]3948513[/attach]

方法跟上面介绍的一样,只有一点变化:

1. 把要穿衣服的地方涂黑
2. 设置里改成只重绘涂掉的地方
3. 提示词里去掉裸露相关的词,加上服装相关的词,比如bikini

效果如下:

[attach]3948514[/attach]

[ 本帖最后由 内力煮火锅 于 2023-4-13 20:46(GMT+8) 编辑 ]
作者: wrjort    时间: 2023-4-9 19:29

技术贴,先去学习学习,以后有大用处,哈哈
作者: aini19960628    时间: 2023-4-9 20:43

厉害了,有了AI黄漫是不是能崛起了
作者: dx3906    时间: 2023-4-10 20:45

RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
这个提示怎么破?
作者: 内力煮火锅    时间: 2023-4-10 20:50

引用:
原帖由 dx3906 于 2023-4-10 20:45 发表 [bbs=redirect.php?goto=findpost&pid=111821114&ptid=11607215][/bbs]
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision th ...
检查一下你的安装指令里面有没有添加这一行:
复制内容到剪贴板
代码:
%pip install torch==1.13.1 cu117 torchvision==0.14.1 cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu117

作者: dx3906    时间: 2023-4-10 21:07

引用:
原帖由 内力煮火锅 于 2023-4-10 20:50 发表 [bbs=redirect.php?goto=findpost&pid=111821140&ptid=11607215][/bbs]

检查一下你的安装指令里面有没有添加这一行:%pip install torch==1.13.1 cu117 torchvision==0.14.1 cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org ...
ERROR: Could not find a version that satisfies the requirement cu117 (from versions: none)
ERROR: No matching distribution found for cu117
谢谢,加上这行以后,依然有这个提示
作者: 内力煮火锅    时间: 2023-4-10 21:40

引用:
原帖由 dx3906 于 2023-4-10 21:07 发表 [bbs=redirect.php?goto=findpost&pid=111821211&ptid=11607215][/bbs]

ERROR: Could not find a version that satisfies the requirement cu117 (from versions: none)
ERROR: No matching distribution found for cu117
谢谢,加上这行以后,依然有这个提示
你这个是在本地部署的还是在线部署的?
本地部署的先查看一下python的版本。
在线部署的确认一下有没有在Colab里打开显卡。
作者: antman001    时间: 2023-4-12 21:31

厉害了我的哥,除了指头不太完美,其他的  穿衣服的比模特强好多
作者: cxwzlzm    时间: 2023-4-12 21:38

能不能使用输入指令 让AI 帮我翻译每个语句的用意  然后再让AI 根据我他翻译过来的语句 重新生成新的图片
作者: mshack    时间: 2023-4-13 16:05

大佬,你这个是用什么模型做的?

另外方便把提示词都放上来吗?

我做出来的美女,mimi居然是欧美人的样子的,没有你这个粉嫩,希望分享模型。
作者: dsyxr369    时间: 2023-4-13 19:00

训练到最后一步时,一直出现两个错误:
一、中间出的错误:
RuntimeError: Error(s) in loading state_dict for UNet2DConditionModel:
size mismatch for
down_blocks.0.attentions.0.transformer_blocks.0.attn2.to_k.weight: copying a
param with shape torch.Size([320, 768]) from checkpoint, the shape in current
model is torch.Size([320, 1024]).
        ...
二、最后出的错误:
CalledProcessError: Command '['/usr/bin/python3', 'train_network.py',
以上两个错误都是在5.5. Start Training,最后一步时出现的错误
结束后,就是没有最终的训练模型文件
楼主有时间帮忙看看怎么能解决呢?万分感谢

[ 本帖最后由 dsyxr369 于 2023-4-13 19:02(GMT+8) 编辑 ]
作者: 内力煮火锅    时间: 2023-4-13 19:53

引用:
原帖由 dsyxr369 于 2023-4-13 19:00 发表 [bbs=redirect.php?goto=findpost&pid=111835744&ptid=11607215][/bbs]
训练到最后一步时,一直出现两个错误:
一、中间出的错误:
RuntimeError: Error(s) in loading state_dict for UNet2DConditionModel:
size mismatch for
down_blocks.0.attentions.0.transformer_blocks.0.attn2.to_k.w ...
2.1那里选择的是Stable-Diffusion-v1-5吗?
是的话,再看5.1那里,V2有没有打钩?注意这里V2不要打钩,因为在2.1那里选择的是v1-5。

[ 本帖最后由 内力煮火锅 于 2023-4-13 20:00(GMT+8) 编辑 ]
作者: 内力煮火锅    时间: 2023-4-13 19:57

引用:
原帖由 mshack 于 2023-4-13 16:05 发表 [bbs=redirect.php?goto=findpost&pid=111835184&ptid=11607215][/bbs]
大佬,你这个是用什么模型做的?

另外方便把提示词都放上来吗?

我做出来的美女,mimi居然是欧美人的样子的,没有你这个粉嫩,希望分享模型。 ...
看一下我帖子里写的内容,
在安装指令里能找到模型的下载地址和文件名。
在提示词里列出了用到的提示词,还有引用lora模型的方法,以及我用到的2个lora模型各自的权重。
后面的每张图前面也列出了每张图都改动了哪些提示词。

[ 本帖最后由 内力煮火锅 于 2023-4-13 20:11(GMT+8) 编辑 ]
作者: dsyxr369    时间: 2023-4-13 20:05

老大,依据你的指点,居然生成模型文件了,哈哈,谢谢
引用:
原帖由 内力煮火锅 于 2023-4-13 19:53 发表 [bbs=redirect.php?goto=findpost&pid=111836049&ptid=11607215][/bbs]

2.1那里选择的是Stable-Diffusion-v1-5吗?
是的话,再看5.1那里,V2有没有打钩?注意这里V2不要打钩,因为在2.1那里选择的是v1-5。

作者: lize0724    时间: 2023-4-14 00:32

大佬牛逼 有空我也学习学习
作者: dsyxr369    时间: 2023-4-14 10:43

楼主老大,依据教程,走到第六步:用复制来的文件的路径替换掉下面的安装指令中的全部汉字,并将修改好的安装指令粘贴进Colab并运行时,
%pip install torch==1.13.1 cu117 torchvision==0.14.1 cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu117,提示:
ERROR: Could not find a version that satisfies the requirement cu117 (from versions: none)
ERROR: No matching distribution found for cu117,
最后提示错误:
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
我的运行环境:windows10,python版本3.7.0,问题出在哪了呢?请都老大赐教

[ 本帖最后由 dsyxr369 于 2023-4-14 10:45(GMT+8) 编辑 ]
作者: 内力煮火锅    时间: 2023-4-14 16:10

引用:
原帖由 dsyxr369 于 2023-4-14 10:43 发表 [bbs=redirect.php?goto=findpost&pid=111839199&ptid=11607215][/bbs]
楼主老大,依据教程,走到第六步:用复制来的文件的路径替换掉下面的安装指令中的全部汉字,并将修改好的安装指令粘贴进Colab并运行时,
%pip install torch==1.13.1 cu117 torchvision==0.14.1 cu117 torchtext==0.14.1 torch ...
更新了安装指令,现在应该没问题了。
重新复制一遍现在的安装指令,再运行一遍试试。
记得先断开连接并删除运行时,然后再重新连接,然后从第二步在Colab的设置里打开显卡开始一步一步做下去。
作者: dsyxr369    时间: 2023-4-14 18:52

引用:
原帖由 内力煮火锅 于 2023-4-14 16:10 发表 [bbs=redirect.php?goto=findpost&pid=111840624&ptid=11607215][/bbs]

更新了安装指令,现在应该没问题了。
重新复制一遍现在的安装指令,再运行一遍试试。
记得先断开连接并删除运行时,然后再重新连接,然后从第二步在Colab的设置里打开显卡开始一步一步做下去。 ...
已能成功出图,关键词用不好,出图质量没有楼主的图质量丰富,清新自然。跪谢楼主老大
作者: ufoufo001    时间: 2023-4-16 09:47

突然想到,能来个子宫透视图么,以前只在漫画里看过,我想看看AI的
作者: 孙宇的爸爸    时间: 2023-4-16 15:54

太牛逼了,大佬,不过要是能出个接入GPT的自主选择去衣的方法就更好了
作者: sukiquan    时间: 2023-4-17 02:59

汗,汗,汗。英文不好是不是弄不了啊。计算机小白真心看的一头雾水。有一张好看的人物,是不是可以把她的脸扒下来啊
作者: iamhixitele    时间: 2023-4-22 10:38     标题: 回复 2楼 的帖子

用controlnet实现这个功能更简单
作者: qadssa1    时间: 2023-4-29 22:15

视频第一步,压缩zip的几张图从哪里下载呀
作者: 内力煮火锅    时间: 2023-4-29 23:01

引用:
原帖由 qadssa1 于 2023-4-29 22:15 发表 [bbs=redirect.php?goto=findpost&pid=111912573&ptid=11607215][/bbs]
视频第一步,压缩zip的几张图从哪里下载呀
自己找自己喜欢的照片,想训练谁的模型,就找那个明星的高清照片。
作者: BuFandi    时间: 2023-5-4 01:37

我想询问一下开贴怎么上传图片啊,网站内暂时找不到具体的教程
作者: junfeng505    时间: 2023-5-4 09:06

不知道有没有新垣结衣的模型啊 时间这么久了也没看到相关的作品
作者: s3ae45    时间: 2023-5-4 21:20

不知道哪里能能下到这些明星的lora模型。电脑上面没代理,C站上面慢得很,过内类似网站炼丹阁上面只找到一些韩国明星的。
作者: sroket    时间: 2023-5-7 14:57

论坛里人才辈出,果然科技就是第一生产力。
作者: 只想抽支烟    时间: 2023-5-17 15:28

有没有办法把训练好的模型文件,存放到本地电脑,然后每次开启sd时再调取本地电脑里的模型?如果有,怎么写代码?
作者: 内力煮火锅    时间: 2023-5-17 21:18

引用:
原帖由 只想抽支烟 于 2023-5-17 15:28 发表 [bbs=redirect.php?goto=findpost&pid=112004322&ptid=11607215][/bbs]
有没有办法把训练好的模型文件,存放到本地电脑,然后每次开启sd时再调取本地电脑里的模型?如果有,怎么写代码?
可以把训练好的模型从谷歌云盘下载到本地电脑里,然后给本地电脑上的sd使用。
Colab里运行的SD不能直接调用本地电脑里的模型,只能调用谷歌云盘里存的模型,或者在线下载模型到Colab里用。
作者: hejindantou007    时间: 2023-5-26 21:08

6的很……
作者: iamhixitele    时间: 2023-5-31 20:59

从最近炼的几次人物来看,模型炼制的好坏关键点有以下几点:1.素材图片的多少,一般需要10张以上不同角度,不同表情的图片,图片越多越好,图片少于5张大概率过拟合;2.素材图片的背景,尽量选择单一背景,最好是扣图后的空白背景,减少素材污染;3.图片打标签,这个挺反直觉的,想要训练的风格不要打标,不想要的风格需要打标,打标签很重要,要精简又不失必要性;4.loss值尽量选择0.072-0.088之间的,低于这个数值很可能过拟合,高于这个数值基本都欠拟合。
作者: laoguige    时间: 2023-6-1 22:36

这个是技术大神啊,必须膜拜一下。学不来
作者: wodewulin    时间: 2023-6-13 08:24

详细相近,已经是手把手了。感谢楼书的真诚和慷慨,有了成果后我会上传一份给大家评价的
作者: zyjd2    时间: 2023-6-17 15:41

感谢分享,之前没肝出来。。。。
作者: lihaibin    时间: 2023-7-27 21:09

好厉害啊 ,楼主水平太棒了,大神,您 好,可以分享ChilloutMix模型吗?
作者: 殇魂羽    时间: 2023-7-29 19:45

感谢楼主分享,运行后出现错误:ImportError: cannot import name '_compare_version' from 'torchmetrics.utilities.imports' (/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/imports.py) 这个怎么解决?
作者: leiouhate    时间: 2023-7-29 23:35

这个好像以前有看过,不过时间太久了,忘记了,重新学习一下吧。
作者: jy02518980    时间: 2023-7-30 18:21

厉害,不说技术干货,光是讲解的图片就是十分精彩!
作者: goodgod2    时间: 2023-8-23 12:00

厉害了,不知道有没有成品网站
作者: Build7    时间: 2023-8-23 22:01

楼主用的是什么大模型,我做出来的都是和漫画一样,不真实
作者: 徐楠    时间: 2024-4-10 19:09

用的秋叶的一键训练,大模型试了一天,感觉合成效果一般,就是合成的只是头部的话还像一些,全身图就是偏的很厉害,完全看不出来




欢迎光临 SiS001! Board - [第一会所 关闭注册] (http://104.194.212.50/forum/) Powered by Discuz! 7.2