-
-
20我看电脑上说要500g内存,有这么大吗
-
0
-
0
-
248
-
3新手该下载哪个版本?从哪儿开始学呢? 也是失业在家突发奇想,想学习ai然后找份新工作的,然后问朋友说先从midjourney开始学,后来看b站说midjourney花钱,不如本地部署sd。就过来学习并发问了。欢迎各位老师解答
-
8以前看本子/玩游戏会因为画风而记住画师(这么多年大概10来个吧)。我常用的画师就是这么来的 但是···玩了AI 发现不再有记住的画师了。以前记住的觉得画风好的那些画师 现在也就觉得就那样(一般)。 这是阈值提高 还是 别的什么?
-
1
-
4
-
4生态太强大了,费劲巴拉好几个小时写出来,然后过几天发现确实有别人写的更好的。我不是太会找节点大家是如何找节点的
-
5就是我看Lora训练, 需要把每张图后面都放一个tag文本文件 我需要通过拖拽来改变文件夹里的图片顺序 但是我拖不动..... 就是拖了没反应,WIN10系统 求解,无语了
-
3跑图的时候上一张图还好好的下一张质量突然变得很差,特别糊,后面又跑了几张也是这样,最后一次跑的时候直接跳出来说我爆显存了,这是什么原因啊?是显卡烧了吗?对以后生图会不会有影响呀
-
10
-
8配置cpu3700x,2060s8G显存,16G内存 如果不能这个配置,如果只玩涩图可以吗,需要什么模型,我下的B站离离原上咩的整合包…什么模型都可以直接瑟瑟吗?
-
13我一直以来都是用的那个R-ESRGEN和UL-E...的放大模型。这俩我个人感觉能够直接保持原图的细节。而且我画的图大都是2.5D偏真实但是又不完全真实的图风格。用sd衍生的大模型直接重绘或者放大,效果喜忧参半,经常需要打量抽卡= =、 这俩方式我用了也很久了。。应该有新的放大技术了吧?而且现在多了个需求是视频放大……上述这俩方式就有些力不从心了。 求问一下SeedVR2和z-image效果怎么样?我现在磁盘危机了= =、SeedVR2是不是可以图片和视频都能放
-
60我作为一名门外汉,作为一名凡人,有没有可能自己炼丹成功呢…..我看B站有分享秋叶炼丹炉的,什么三连私信,我估摸着全是骗子 求大佬解答,我身为小白,有没有可能自己炼出lora.
-
14
-
7
-
45
-
0
-
588我个人觉得SD1.5还是很棒的~~ 我还是能画的很不错的,给你们展示下
-
44
-
63以下是个人使用体会,不具有权威性,仅供参考 - 分辨率最高设2048×2048,再高容易崩图 - 分辨率数值保持16的倍数,这点很重要;实在有非规则尺寸需求,也可以用8的倍数替代 - 采样步数按官网推荐6-10步就好,超过11步画质明显受影响,不推荐 - 调度器分阶段用双采样法:第一步选uniform采样,第二或第三步切换为beta采样器,既能兼顾画面多样性与画质,又能有效降低出图重复率 - 双采样法配套CFG设置:第一采样的CFG设为2,让负面提示词生效;第二
-
2
-
10无论国内的还是国外的AI视频软件,目前大都是免费使用指标,好奇他们的利润点在哪里?给用户免费到啥时候会停止?或者几个后期会完全消失
-
30NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check. 刚开始用一个模型跑了小图,后来再跑变成绿色。 再后来就出现上述英文。 我没有用安装包,自己摸索安装的,不晓得问
-
9
-
24
-
1或者改成在input文件夹里分层文件夹也行 我把input文件夹当素材存放位置 现在越来越多就越来越乱
-
16我用的是amd的6800xt,webUI,16G的显存往往只能跑1000*1000的图,还很容易爆图。只有开了FP8权重才能跑到1000*1300,这和网上说的能跑2k分辨率相去甚远……有懂的大佬帮忙给小白解惑吗?
-
13
-
1多跑了几张发现好像是「某种特定的颜色」会生成错误,产生偏色 图不太好放,我之后跑几张 SFW 补一下图,想象一下蓝色的芒果内壁或如云、红种人、蓝精灵、黑手党就好
-
21有有没有大佬能告诉我,问题到底出在哪,我V50感谢... 我下了一个老H游戏的Lora模型,之前特别好用,生成的图都特别好 我今天想给它加入预览图,加了之后,它生成的人物衣服颜色都变了 不符合了,差了很多 我删除了Lora预览图,删除Lora重新下,最后重装sd 都不行!Lora前两天特别好用,很像,现在不管怎么折腾都变样了 衣服颜色什么都变了 我什么也没改呀,真的好奇怪 感觉像出了鬼了,什么也没动啊? 为什么会有这种变化呢,删除Lora重新下,
-
3如题,想问一下各位知道SD有没有什么模型能用来绘制条形图,饼状图这类图片的,求教
-
18
-
12感觉controlnet不太好用 以及那种直接用一段话生成图像的文本编码器叫什么?使用有什么要求限制吗?
-
21近期我深度体验了Z-Image模型,对其整体表现印象深刻。但在实际应用中遇到了一些技术瓶颈,希望寻求解决方案。 **核心问题描述:** 我的创作方向涉及成人向内容(NSFW),特别是特定身体特征的表现(跨性别特征/双性特征)。Z-Image在解剖结构精准度方面表现欠佳,尤其是生殖器官和私密部位的渲染质量不稳定。 虽然Z-Image提供了相关LoRA模块,但适配效果不够真实,经常产生解剖错误或不自然的输出结果。 相比之下,某个SDXL底模在特定身体特征表
-
53
-
2webui生图的过程中 百分之六十左右的预览图看着十分之优秀十分之符合预期 但继续今晚到完成跑出来的图却不如过程中预览图那般优秀 有什么办法可以调节吗 比如一点一点的改某一个参数让那时的图为完成时的图?
-
9tag文件无法反推啊,因为不是SD生成的,都是网上找的图 我看攻略每个图后面都自己加一个tag文本,反推,一大堆提示词 但是这些图是网上找的,无法反推,文本怎么写啊..... 另外我的文件夹,不知为什么,无法通过拖拽改变图片顺序 求大佬解答,应该怎么办,感谢
-
5目前我的做法是每个动作一套提示词,一个动作1~2张图,这样一套120p的图也要60~80套提示词,感觉效率太低了,生成的图片构图也不是很好、镜头视角很难控制。而且手搓提示词太慢了,目前也才搓了20个不到。 看到有大佬的做法是找一套别人的图,wd反推tag,提取其中的动作描述,生图的时候 controNet openpose + 深度。但是这样同质化会很严重。 所以p站那些大佬是怎么做的呢?
-
6
-
5萌新求解,还是说SD没有视频模型 在线等,感谢
-
5
-
27
-
1我周末的时候在one obsession19上炼了一个人物lora,后边发现c站上对19的评价不是很好,联想到要是每个微调过的大模型都专门炼一个的话太麻烦了。 后边在illu上又炼了一个,训练集打标啥的都没变,但是拿到one obession上跑出来的图质量感觉不大行😂 想问问各位大佬是咋办的
-
24

火柴人
朝花
...
长谷川...