-
-
0
-
5xl是不是都不能用?pony已经磨了一周了,不是卡在百分之0就是out of m已经不想再试了
-
2
-
17这东西学起来太恶心了,拿到一个工作流,节点装下来,解决这个狗屎环境问题,节点不会用,要去github上看天书,会用了,还要拿时间来抽奖调参数,最重要的是。我这样学了一个工作流之后,效果不好,我不知道怎么优化,我生图的时候不知道去哪找一个节点优化我图片的东西,还是说普通人只能玩点简单的文生图,这东西不属于我
-
47
-
5
-
20做LORA时素材只有视频截图,不是很清晰,有没有办法吧图片修复高清一点的方法?修复高清一点再跑LORA,肯定LORA效果更好
-
4
-
0
-
51从webui的sd1.5,玩到comfy的pony再到光辉,顿时觉得玩的几百部的黄油索然无味了,还是ai绘画好玩,光辉的模型真涩啊,用dmd2加速,p104都能跑,手指还基本不会错,之后想试试本地ai语言模型了,k80的24g显存够不
-
4
-
11
-
6
-
38
-
41
-
21
-
4
-
38我个人C站SD1.5 主模资源比较全(仅限2次元) 之前就想给大家介绍下,但一直舍不得这点资源的知识。有点小气不好意思啊~ 现在SD1.5末期了,藏着掖着也没有什么意义了 再开个坑 慢慢给大家说说吧
-
15
-
0提示词里有其他插件的参数,用“从提示词读取参数”时,好像只能识别高分辨率修复之类的参数,其他插件的参数都读不出来
-
3
-
3
-
2如题,秋叶启动器,16g内存,torch2.5.1,xformers0.28,CUDA开启,剪枝fp8_e4m3fn_fas,1024*1536纯采样最快80+秒正常吗? 据说4060ti能到30秒,总感觉差距太大了不正常
-
4
-
4
-
551、sdxl支持的东西是不是很少,生态很差劲,没几个大佬做模型什么的,无法满足一个需求高的人? 2、sd 1.5究竟能不能直出1024*1024的图,适不适合对画质细节要求高的人? 因为我听说1.5只能出512的图,不管你用什么方式放大,终究会损失很多细节,而且变很多。。。 求大佬解答!
-
4
-
5
-
0跑一些开口笑的图,牙齿经常走形,搜了tooth的也没看到有相关的lora
-
41
-
14lora太多 记不住了啊!!呜呜~~ 每次都要回去网站上看 太麻烦了
-
14
-
20用的是秋叶的整合版sd,已经更新到最新版本的。但是我发现这个图生图局部重绘去布料的功能好像失效了,不管怎么样死活都去不了布料,生成的图片都是在原图的基础上改变衣服而已。之前旧版本我是试过制作的,tag也是一样的tag,所以我可以排除不是因为设置和tag的问题。 在这之前中间一年没玩了,最近重新弄才发现弄不了了。试过想降级回旧版的sd也降不回去,会报错。 有没有知道是怎么回事的。
-
34发现难度不是一般的高,基本提供一张主体图 剩下就是对方的天马行空想法 构图全部从零开始,一张图要分好几个区域,每个区域可能是要求不同的风格, 比如一滴大水滴,滴到一双机械手,这是画面上半部 下面左边一个工厂排污,中间高科技净化管道,右边是清澈的水 或者三视图,一些纯粹幻想或者手绘的人物,只有一个正面,没有任何参考要求出三视图 或者一个极具特色的漫画人物,也是一张图,要出现在一个幻想的古风世界,还要有其他的
-
45
-
43
-
18
-
1
-
29
-
13
-
24技术小白,刚用秋叶大佬的webui没几天,对AI一窍不通,英语又十分拉跨,目前仅仅靠B站的视频了解一些基础知识,我有几点在网上没找到答案(也可能是我没理解)有没有未来的亿万富翁给我解答一下。 1.我下了一堆1.5的大模型,然后把Stable-diffusion文件夹自带的那个大模型删了,有没有问题? 2.这些大模型就是正常绘图使用会不会越用越好?是单纯的数据模块还是会自己进化? 3.我常用百度翻译然后输入提示词,但是这些词好像不是很精准,有没专
-
2
-
2VAE找了半天都没找到。在本机装载大模型之后,也没见VAE选单里出现新的VAE啊
-
2
-
3
-
41