156: 名無しのメタバースさん 2023/03/11(土) 13:14:14.53 ID:KmVlmYH80

プロンプトエディティングと
LoRA使ってモナミクさん変化作ってみた
https://i.imgur.com/V1zQIl3.gif
キいけど面白いなぁ
CN使って位置もがっつり固定すれば
更に違和感なくチェンジさせられるかね

158: 名無しのメタバースさん 2023/03/11(土) 13:16:50.21 ID:tVSgRpBzp

>>156

クッソワロタ
モナリザさんのつぶらな瞳もいいw

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku


161: 名無しのメタバースさん 2023/03/11(土) 13:33:53.16 ID:SNWKHBzia

>>156

絵画が動いてるとハリーポッターみを
感じてしまう

194: 名無しのメタバースさん 2023/03/11(土) 14:42:57.24 ID:KmVlmYH80

CNdepthも使ってモナ→ミクさん再トライや
https://i.imgur.com/gCFaHMp.gif
文明の進化を感じますね

198: 名無しのメタバースさん 2023/03/11(土) 14:50:12.39 ID:2wMPwChR0

>>194


207: 名無しのメタバースさん 2023/03/11(土) 15:12:29.15 ID:gQ30naKU0

>>194

面白そう簡単にできるのかな

78: 名無しのメタバースさん 2023/03/11(土) 09:52:52.75 ID:bRUL91g30

サンイチ!
Defmixの風景画はhiresで建物の線が
シャープに維持される気がする
https://i.imgur.com/tYvpU0C.png

91: 名無しのメタバースさん 2023/03/11(土) 10:26:13.59 ID:3CNbtdxQ0

>>78

遠景までかなり緻密に
描かれてええなぁこれ

92: 名無しのメタバースさん 2023/03/11(土) 10:28:44.65 ID:bRUL91g30

majinaiにあるんでよかったらドゾー
https://majinai.art/i/l9YZ3RN

96: 名無しのメタバースさん 2023/03/11(土) 10:35:24.70 ID:bRUL91g30

>>92

描くもの変えればなんぼでも
バリエーション増やせるで

139: 名無しのメタバースさん 2023/03/11(土) 12:13:22.91 ID:1D/o/2fb0

>>92

背景に山があるとなんだか良い感じになるねー
ちょいリアルを混ぜたモデルでやるとさらに良き

これは道路が崩壊してるけどw
https://i.imgur.com/mM7tdn7.jpg
https://i.imgur.com/c642HJh.jpg

145: 名無しのメタバースさん 2023/03/11(土) 12:29:45.25 ID:SgCMRBadp

>>139

おお、いい……
モデルは何使ってるんですか?

152: 名無しのメタバースさん 2023/03/11(土) 13:11:19.97 ID:1D/o/2fb0

>>145

自家製マージモデルなのにレシピ紛失したから
細かい部分がもうわからないんだけど
Anything系に実写系(BasilやChillout)
を0.3~0.5くらい混ぜればこんな感じになるはず
仕上げにR-ESRGANとかでアップスケールすれば完成よ

157: 名無しのメタバースさん 2023/03/11(土) 13:15:07.32 ID:tVSgRpBzp

>>152

サンガツ
俺もマージモデルに手を出してみるか

155: 名無しのメタバースさん 2023/03/11(土) 13:14:09.80 ID:r5rnGNGR0

背景はloraの領域分けも効いてないよね
背景の階層(IN457)に顔も含まれるので階層分離も難しい
解像度上げるか背景lora外して人物だけi2iするか

775: 名無しのメタバースさん 2023/03/12(日) 18:42:07.74 ID:ArR/Wsmh0

デフォルトのプロンプト保存機能より
便利な拡張機能がここで何度か紹介されてたと
思うんだけどなんて名前だっけ?
wikiのExtension見ても見つからないや

780: 名無しのメタバースさん 2023/03/12(日) 19:02:40.15 ID:yIk8qlk60

少ない素材でマイナーキャラLORAつくって
生成したイラストを学習用画像に追加して
またLORAつくって……って感じ繰り返して
理想のLORA作ったことある人おる?
うまくいくんかな

781: 名無しのメタバースさん 2023/03/12(日) 19:02:49.51 ID:ZZtgi2zr0

LoRAで失敗ってどんな失敗なんだ
キャラの片鱗すら再現されないレベルなのか
前髪やハネ髪一本が出せないレベルなのか
どっちにしてもタグ付けの問題じゃなさそうだが

783: 名無しのメタバースさん 2023/03/12(日) 19:17:22.01 ID:vF57VZ2o0

>>781

ポーズが出にくかったり服の再現ができてない段階で
元絵の塗りに近い物が出てしまったり顔がくしゃったり
だからこれ以上学習させるか引くかが分かりにくくなったり
ただApply Lora to outputs rather than inputs when possible
のオンオフで凄く変わるから分からなくなった
オフの時にモデルの味が出る方がいいのだろうか?
みんなオンでやってるのかな?

785: 名無しのメタバースさん 2023/03/12(日) 19:18:42.75 ID:vF57VZ2o0

>>783

ちなみにこれはキャラ再現の話です

787: 名無しのメタバースさん 2023/03/12(日) 19:20:37.32 ID:vF57VZ2o0

理想はnaiで学習したりaomで学習したら
そのキャラクターの特徴をプロンプトできちんと出しつつ
モデルの絵柄と背景で描いてくれることなんやけど
強度を減らしてやってみたり階層loraでもいける
みたいだから悩んでるけど

789: 名無しのメタバースさん 2023/03/12(日) 19:25:44.30 ID:heKadZhr0

>>787

元のキャラの画風や塗りで
モデルとの相性ってもんがあるから
コレっていう答えは出ないやろなぁ
そもそもプロンプトの効きが悪いモデルとかもあるし

799: 名無しのメタバースさん 2023/03/12(日) 20:08:08.48 ID:vF57VZ2o0

>>789

僕が知りたいのはリアル系3Dキャラのスクショから
2次元に落とし込む安定したレシピとおすすめモデルかなー
それとも塗りでっていうなら一旦アニメ絵loraでi2iした方がいいのだろうか
過学習しないならそのままでも一緒だと思ってたけど
モデル相性とかあるならどうなんだろう

801: 名無しのメタバースさん 2023/03/12(日) 20:25:08.89 ID:F1OLmUcN0

>>799

controlnetでdepthとか使って2Dモデルで
出力すれば特に苦労せずに出来るんじゃね?

805: 名無しのメタバースさん 2023/03/12(日) 20:35:02.42 ID:vF57VZ2o0

>>801

そこで過学習とかがでてきまして
どれ使っても似たようなのになっちゃって
階層lora使ってアニメlora適応でもよさそうですけどねw

795: 名無しのメタバースさん 2023/03/12(日) 19:49:52.97 ID:vkJKiEac0

i2iで画像を一部分だけ
書き直したり消したりしたくて
Inpaint a part of imageというのが
できるらしいんやが項目が見当たらん

記事見ても2022年のとかやし今変わってるんやろか
sketchで黒く塗りつぶせるはするけどこれやないよな

861: 名無しのメタバースさん 2023/03/12(日) 23:09:03.22 ID:g4ZNJEtjd

昨日のアプデ適用したらなんかモザイクとか
ノイズめっちゃ出るようになってもうた
他の変更も多かったんかなぁ入れ直すかぁ

877: 名無しのメタバースさん 2023/03/12(日) 23:50:49.76 ID:eKN1qEQE0

.tomlで設定ファイル作るのは最近のアプデで
追加されたやつだからスレ民でやってる人はまだあんまいない気がする
.txtと.captionを統合するのはオプションだった気が
するけどワイはめんどくさいので.txtだけ置いてやってる
統合してやったらなんか精度あがったりすんのかね

885: 名無しのメタバースさん 2023/03/12(日) 23:58:01.23 ID:ecHD+idu0

>>877

よくわかってなくて、
勉強がてら昨日colaboでトレーニングするのに
色々試したけど、現状だとコマンドラインと
tomlと設定がばらけるなーって感じに
datasets.subsets使いこなすとつよつよな気がするけど、
いまだにそこまで至ってない自分

878: 名無しのメタバースさん 2023/03/12(日) 23:52:04.81 ID:FAZS+X050

としあきの.batベースやから
2.のDB方式キャプション.txtあり、
正則無しでやってることになるな
1.のキャプション無し正則無しもやったことある
fine tuneはやったことない

879: 名無しのメタバースさん 2023/03/12(日) 23:53:28.33 ID:ePo/39Tb0

色々設定間違えててもとりあえず
教師画像さえ指定しておけばそれなりに
学習するから失敗に気付きにくいんだよな
タグ設定できてるかの確認はAdditional Networksタブの
右下にあるTraining infoを見るとええ

883: 名無しのメタバースさん 2023/03/12(日) 23:57:12.41 ID:x9kcyuTM0

>>879

俺のタグ学習できてないわ!😭
画像フォルダ名の〇〇 girlしか表示されてねぇ…
やっぱりコマンド記入必要なんか?

891: 名無しのメタバースさん 2023/03/13(月) 00:05:04.58 ID:h0VnyDwW0

wikiよりまずkohyaニキのREADMEを読むべきや

ワイはFT式やが、webuiのkohya sd-scriptsの
preparationでmake caption→手直し→
merge caption→clean caption and tags→
prepare latentsしてからtrain-network.pyを実行する.batを叩いとる
なんでlatentsを事前取得するかというと、学習が高速化するからや

898: 名無しのメタバースさん 2023/03/13(月) 00:16:08.25 ID:1k5kJe3A0

finetuneは>>891みたいな手順踏まないと
あかんから面倒でワイもDB+タグや
ワイはcolor_augとrandom_crop使うっとるから
latent事前取得しとらん。
効果あるのかはわからん。雰囲気で学習しとる

894: 名無しのメタバースさん 2023/03/13(月) 00:11:46.71 ID:UVug92iI0

うせやろと思ってAdditional networkで見てきたら
ワイの作ってきたLoRAなんもタグ認識してなくて草
"--caption_extension=.txt"を明示的に指定しなくちゃいかんのか?
.captionの統合とかLatentsのキャッシュとかは
オプションだった気がするからこの辺はたぶん関係ない……気がする

895: 名無しのメタバースさん 2023/03/13(月) 00:12:30.10 ID:h0VnyDwW0

caption-extentionのデフォルト値は.captionや
.txtでファイル作ってるなら指定しないとダメや
で、キャプションを使うとフォルダ名
(identifier class)は使用されなくなる
キャプションが読み込まれてなくてもフォルダ名が
identifier classになってれば通常のDB式になって
classに対して学習を行う
この場合、タグやキャプションは意味ない

897: 名無しのメタバースさん 2023/03/13(月) 00:14:36.90 ID:3bKO9Tpk0

>>895

うわああああまた学習し直しや
loraくんが優秀すぎてタグ学習できてない事に
1ヶ月も気づかなかった…

903: 名無しのメタバースさん 2023/03/13(月) 00:17:58.75 ID:TXlYeYDq0

>>897

「自分は初めから正則化無しDBで学習派でしたが?(すっとぼけ)」
ってことにしとこう

900: 名無しのメタバースさん 2023/03/13(月) 00:16:39.78 ID:tKTvhkuqp

別に今まで問題なかったなら
学習し直さなくてええやろ

909: 名無しのメタバースさん 2023/03/13(月) 00:20:58.18 ID:3bKO9Tpk0

>>900

弱めないと自作画風blue eyesや言うてるのに
purple eyesとかになる事が多かったんや、
あと手足がグニャったり
ようやく全ての原因が分かったで

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678476722/
_________________________________________________________________________________