156: 名無しのメタバースさん 2023/03/11(土) 13:14:14.53 ID:KmVlmYH80
プロンプトエディティングと
LoRA使ってモナミクさん変化作ってみた
https://i.imgur.com/V1zQIl3.gif
キいけど面白いなぁ
CN使って位置もがっつり固定すれば
更に違和感なくチェンジさせられるかね
158: 名無しのメタバースさん 2023/03/11(土) 13:16:50.21 ID:tVSgRpBzp
>>156
クッソワロタ
モナリザさんのつぶらな瞳もいいw
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
161: 名無しのメタバースさん 2023/03/11(土) 13:33:53.16 ID:SNWKHBzia
>>156
絵画が動いてるとハリーポッターみを
感じてしまう
194: 名無しのメタバースさん 2023/03/11(土) 14:42:57.24 ID:KmVlmYH80
CNdepthも使ってモナ→ミクさん再トライや
https://i.imgur.com/gCFaHMp.gif
文明の進化を感じますね
198: 名無しのメタバースさん 2023/03/11(土) 14:50:12.39 ID:2wMPwChR0
>>194
草
207: 名無しのメタバースさん 2023/03/11(土) 15:12:29.15 ID:gQ30naKU0
>>194
面白そう簡単にできるのかな
78: 名無しのメタバースさん 2023/03/11(土) 09:52:52.75 ID:bRUL91g30
サンイチ!
Defmixの風景画はhiresで建物の線が
シャープに維持される気がする
https://i.imgur.com/tYvpU0C.png
91: 名無しのメタバースさん 2023/03/11(土) 10:26:13.59 ID:3CNbtdxQ0
>>78
遠景までかなり緻密に
描かれてええなぁこれ
92: 名無しのメタバースさん 2023/03/11(土) 10:28:44.65 ID:bRUL91g30
majinaiにあるんでよかったらドゾー
https://majinai.art/i/l9YZ3RN
96: 名無しのメタバースさん 2023/03/11(土) 10:35:24.70 ID:bRUL91g30
>>92
描くもの変えればなんぼでも
バリエーション増やせるで
139: 名無しのメタバースさん 2023/03/11(土) 12:13:22.91 ID:1D/o/2fb0
>>92
背景に山があるとなんだか良い感じになるねー
ちょいリアルを混ぜたモデルでやるとさらに良き
これは道路が崩壊してるけどw
https://i.imgur.com/mM7tdn7.jpg
https://i.imgur.com/c642HJh.jpg
145: 名無しのメタバースさん 2023/03/11(土) 12:29:45.25 ID:SgCMRBadp
>>139
おお、いい……
モデルは何使ってるんですか?
152: 名無しのメタバースさん 2023/03/11(土) 13:11:19.97 ID:1D/o/2fb0
>>145
自家製マージモデルなのにレシピ紛失したから
細かい部分がもうわからないんだけど
Anything系に実写系(BasilやChillout)
を0.3~0.5くらい混ぜればこんな感じになるはず
仕上げにR-ESRGANとかでアップスケールすれば完成よ
157: 名無しのメタバースさん 2023/03/11(土) 13:15:07.32 ID:tVSgRpBzp
>>152
サンガツ
俺もマージモデルに手を出してみるか
155: 名無しのメタバースさん 2023/03/11(土) 13:14:09.80 ID:r5rnGNGR0
背景はloraの領域分けも効いてないよね
背景の階層(IN457)に顔も含まれるので階層分離も難しい
解像度上げるか背景lora外して人物だけi2iするか
775: 名無しのメタバースさん 2023/03/12(日) 18:42:07.74 ID:ArR/Wsmh0
デフォルトのプロンプト保存機能より
便利な拡張機能がここで何度か紹介されてたと
思うんだけどなんて名前だっけ?
wikiのExtension見ても見つからないや
780: 名無しのメタバースさん 2023/03/12(日) 19:02:40.15 ID:yIk8qlk60
少ない素材でマイナーキャラLORAつくって
生成したイラストを学習用画像に追加して
またLORAつくって……って感じ繰り返して
理想のLORA作ったことある人おる?
うまくいくんかな
781: 名無しのメタバースさん 2023/03/12(日) 19:02:49.51 ID:ZZtgi2zr0
LoRAで失敗ってどんな失敗なんだ
キャラの片鱗すら再現されないレベルなのか
前髪やハネ髪一本が出せないレベルなのか
どっちにしてもタグ付けの問題じゃなさそうだが
783: 名無しのメタバースさん 2023/03/12(日) 19:17:22.01 ID:vF57VZ2o0
>>781
ポーズが出にくかったり服の再現ができてない段階で
元絵の塗りに近い物が出てしまったり顔がくしゃったり
だからこれ以上学習させるか引くかが分かりにくくなったり
ただApply Lora to outputs rather than inputs when possible
のオンオフで凄く変わるから分からなくなった
オフの時にモデルの味が出る方がいいのだろうか?
みんなオンでやってるのかな?
785: 名無しのメタバースさん 2023/03/12(日) 19:18:42.75 ID:vF57VZ2o0
>>783
ちなみにこれはキャラ再現の話です
787: 名無しのメタバースさん 2023/03/12(日) 19:20:37.32 ID:vF57VZ2o0
理想はnaiで学習したりaomで学習したら
そのキャラクターの特徴をプロンプトできちんと出しつつ
モデルの絵柄と背景で描いてくれることなんやけど
強度を減らしてやってみたり階層loraでもいける
みたいだから悩んでるけど
789: 名無しのメタバースさん 2023/03/12(日) 19:25:44.30 ID:heKadZhr0
>>787
元のキャラの画風や塗りで
モデルとの相性ってもんがあるから
コレっていう答えは出ないやろなぁ
そもそもプロンプトの効きが悪いモデルとかもあるし
799: 名無しのメタバースさん 2023/03/12(日) 20:08:08.48 ID:vF57VZ2o0
>>789
僕が知りたいのはリアル系3Dキャラのスクショから
2次元に落とし込む安定したレシピとおすすめモデルかなー
それとも塗りでっていうなら一旦アニメ絵loraでi2iした方がいいのだろうか
過学習しないならそのままでも一緒だと思ってたけど
モデル相性とかあるならどうなんだろう
801: 名無しのメタバースさん 2023/03/12(日) 20:25:08.89 ID:F1OLmUcN0
>>799
controlnetでdepthとか使って2Dモデルで
出力すれば特に苦労せずに出来るんじゃね?
805: 名無しのメタバースさん 2023/03/12(日) 20:35:02.42 ID:vF57VZ2o0
>>801
そこで過学習とかがでてきまして
どれ使っても似たようなのになっちゃって
階層lora使ってアニメlora適応でもよさそうですけどねw
795: 名無しのメタバースさん 2023/03/12(日) 19:49:52.97 ID:vkJKiEac0
i2iで画像を一部分だけ
書き直したり消したりしたくて
Inpaint a part of imageというのが
できるらしいんやが項目が見当たらん
記事見ても2022年のとかやし今変わってるんやろか
sketchで黒く塗りつぶせるはするけどこれやないよな
861: 名無しのメタバースさん 2023/03/12(日) 23:09:03.22 ID:g4ZNJEtjd
昨日のアプデ適用したらなんかモザイクとか
ノイズめっちゃ出るようになってもうた
他の変更も多かったんかなぁ入れ直すかぁ
877: 名無しのメタバースさん 2023/03/12(日) 23:50:49.76 ID:eKN1qEQE0
.tomlで設定ファイル作るのは最近のアプデで
追加されたやつだからスレ民でやってる人はまだあんまいない気がする
.txtと.captionを統合するのはオプションだった気が
するけどワイはめんどくさいので.txtだけ置いてやってる
統合してやったらなんか精度あがったりすんのかね
885: 名無しのメタバースさん 2023/03/12(日) 23:58:01.23 ID:ecHD+idu0
>>877
よくわかってなくて、
勉強がてら昨日colaboでトレーニングするのに
色々試したけど、現状だとコマンドラインと
tomlと設定がばらけるなーって感じに
datasets.subsets使いこなすとつよつよな気がするけど、
いまだにそこまで至ってない自分
878: 名無しのメタバースさん 2023/03/12(日) 23:52:04.81 ID:FAZS+X050
としあきの.batベースやから
2.のDB方式キャプション.txtあり、
正則無しでやってることになるな
1.のキャプション無し正則無しもやったことある
fine tuneはやったことない
879: 名無しのメタバースさん 2023/03/12(日) 23:53:28.33 ID:ePo/39Tb0
色々設定間違えててもとりあえず
教師画像さえ指定しておけばそれなりに
学習するから失敗に気付きにくいんだよな
タグ設定できてるかの確認はAdditional Networksタブの
右下にあるTraining infoを見るとええ
883: 名無しのメタバースさん 2023/03/12(日) 23:57:12.41 ID:x9kcyuTM0
>>879
俺のタグ学習できてないわ!😭
画像フォルダ名の〇〇 girlしか表示されてねぇ…
やっぱりコマンド記入必要なんか?
891: 名無しのメタバースさん 2023/03/13(月) 00:05:04.58 ID:h0VnyDwW0
wikiよりまずkohyaニキのREADMEを読むべきや
ワイはFT式やが、webuiのkohya sd-scriptsの
preparationでmake caption→手直し→
merge caption→clean caption and tags→
prepare latentsしてからtrain-network.pyを実行する.batを叩いとる
なんでlatentsを事前取得するかというと、学習が高速化するからや
898: 名無しのメタバースさん 2023/03/13(月) 00:16:08.25 ID:1k5kJe3A0
finetuneは>>891みたいな手順踏まないと
あかんから面倒でワイもDB+タグや
ワイはcolor_augとrandom_crop使うっとるから
latent事前取得しとらん。
効果あるのかはわからん。雰囲気で学習しとる
894: 名無しのメタバースさん 2023/03/13(月) 00:11:46.71 ID:UVug92iI0
うせやろと思ってAdditional networkで見てきたら
ワイの作ってきたLoRAなんもタグ認識してなくて草
"--caption_extension=.txt"を明示的に指定しなくちゃいかんのか?
.captionの統合とかLatentsのキャッシュとかは
オプションだった気がするからこの辺はたぶん関係ない……気がする
895: 名無しのメタバースさん 2023/03/13(月) 00:12:30.10 ID:h0VnyDwW0
caption-extentionのデフォルト値は.captionや
.txtでファイル作ってるなら指定しないとダメや
で、キャプションを使うとフォルダ名
(identifier class)は使用されなくなる
キャプションが読み込まれてなくてもフォルダ名が
identifier classになってれば通常のDB式になって
classに対して学習を行う
この場合、タグやキャプションは意味ない
897: 名無しのメタバースさん 2023/03/13(月) 00:14:36.90 ID:3bKO9Tpk0
>>895
うわああああまた学習し直しや
loraくんが優秀すぎてタグ学習できてない事に
1ヶ月も気づかなかった…
903: 名無しのメタバースさん 2023/03/13(月) 00:17:58.75 ID:TXlYeYDq0
>>897
「自分は初めから正則化無しDBで学習派でしたが?(すっとぼけ)」
ってことにしとこう
900: 名無しのメタバースさん 2023/03/13(月) 00:16:39.78 ID:tKTvhkuqp
別に今まで問題なかったなら
学習し直さなくてええやろ
909: 名無しのメタバースさん 2023/03/13(月) 00:20:58.18 ID:3bKO9Tpk0
>>900
弱めないと自作画風blue eyesや言うてるのに
purple eyesとかになる事が多かったんや、
あと手足がグニャったり
ようやく全ての原因が分かったで
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678476722/
_________________________________________________________________________________
コメントする