20: 名無しのメタバースさん 2023/02/07(火) 04:00:22.83 ID:041PgacH0

よし20ちょっと待っとけ
層別LoRAでくっそ役立ちそうなんや

24: 名無しのメタバースさん 2023/02/07(火) 04:10:51.01 ID:041PgacH0

あったわこれだわ層別の途中出力可視化

166 ID:d05zv88Y0
スレの流れ速すぎやろ……
前スレの681やけど、U-netの途中出力を
可視化するCustom Script作ったわ
https://github.com/hnmr293/stable-diffusion-webui-dumpunet
初めてやからエラーとかは許してくれ

t2iのScriptでDump U-net featuresを選んで
実行するとこんな出力が得られる

これでモデルごとの違いをいくつか見てみるつもりや

25: 名無しのメタバースさん 2023/02/07(火) 04:13:10.13 ID:041PgacH0

>>24

ニキサンガツ!
https://i.imgur.com/cS7Ixva.jpg

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku


26: 名無しのメタバースさん 2023/02/07(火) 04:15:33.57 ID:041PgacH0

層別マージ時期のエポック部分置いとくか

117 ID:6SOVW4gT0
層別マージ検証
AnyとRiffusion(灰色画像しか出ない)の
マージでパラメータは全て0
但し指定されている箇所のみ0.5
https://i.imgur.com/gRk7sZj.jpg
どの層のどの部分が何に影響を与えているかの
参考にしてくれ

128 ID:6SOVW4gT0
>>124
これでいけるか?
https://i.imgur.com/gRk7sZj.png
↓あかんかった時用(50MBあるで)
https://44.gigafile.nu/1229-dfde4edc3c7ad805ce24d7edf5f914771

27: 名無しのメタバースさん 2023/02/07(火) 04:18:29.67 ID:041PgacH0

658 ID:il3cJB89M
階層マージの階層と反映の解析で
判明してる部分てOUTの10と11が塗りに繋がる、くらい?
レイヤー18(OUT6?)が
顔に反映されるってスレに書いてあったけど
自分でOUT6だけ1にしてやってみても
顔に反映されてるようなそれほどしてないような…

28: 名無しのメタバースさん 2023/02/07(火) 04:18:59.05 ID:041PgacH0

>>27

662 ID:u6IhOXb+0
>>658
out6はしっかり顔に影響するぞい、
マージするモデルにもよるけど

out09~11:ほとんど影響なし、塗りとかはココかな

out08~07:8はうっすらと変わる、
7は8より多少影響あるくらい

out06:わりと影響ある。
ここら辺までは1層だけのマージだと
はっきりとした変化は分かりにくい

out05~04:めっちゃ顔に影響あるというか
顔の造形はここがベースといっていいレベル

out03:06くらいの程度影響具合、
でも06マージとは全然違う結果になる

out02~00:あんまり影響はない
て感じで、昨日anyに1層づつ
リアル系混ぜてた時の検証の結果です

29: 名無しのメタバースさん 2023/02/07(火) 04:20:30.90 ID:041PgacH0

758 ID:QtFLyIY90
リアルに寄ったマージanime化するの
調整ムズいんやが7thニキどうやってるんやろか
階層マージでin00,01とout10,11だけ
反映させるとなんか違う感じになってまう

759 ID:dtKfuXsI0
>>758
REVERSE-SMOOTHSTEP
1,0.994936342592593,0.980324074074074,0.95703125,
0.925925925925926,0.887876157407407,0.84375,
0.794415509259259,0.740740740740741,0.68359375,
0.623842592592593,0.562355324074074,0.5,0.437644
675925926,0.376157407407408,0.31640625,0.259259259259259,0.
205584490740741,0.15625,0.112123842592592,0.074074074074074
2,0.0429687499999996,0.0196759259259258,0.00506365740740744,0

30: 名無しのメタバースさん 2023/02/07(火) 04:21:26.11 ID:041PgacH0

>>29

763 ID:dtKfuXsI0
>>758
考え方を変えないといかんで
一回でやろうというのが間違っとる

『リアル系の登場人物』は邪魔だから
最優先で消さんといかんけど、
それをやると背景まで消える
だからあんまり消さないようにしようとすると
今度はキャラにリアルの要素が残るやろ?

要約すると
塗りを移動できないなら
それ以外の要素を強く残したモデルを
2つ作ってからそいつを合成するんや

31: 名無しのメタバースさん 2023/02/07(火) 04:21:43.84 ID:041PgacH0

>>30

764 ID:dtKfuXsI0
連レスになるけど
①塗りが一回のマージでは移動できない
②だから塗り以外のリアル系背景を残すような
モデルを作る(ただしこの段階では塗りが弱い)
③②を合成する(ほかのモデルでも
同じモデルでもいいけどそこらへんはガチャ)
④リアル系の背景に2D寄りのキャラ・塗りのキャラが合成できる

32: 名無しのメタバースさん 2023/02/07(火) 04:24:16.27 ID:041PgacH0

こんなとこか
7thニキ5ch書けなくなっとるんやっけ?
discordとかでいまやっとるんかな

33: 名無しのメタバースさん 2023/02/07(火) 04:42:19.36 ID:041PgacH0

Stable Diffusionのモデルを
U-Netの深さに応じて比率を変えてマージする
Kohya S.
2022年10月15日 13:06
https://note.com/kohya_ss/n/n9a485a066d5b

Stable DiffusionのU-Netでブロックごとに異なる
プロンプトを与えて画像生成する(ブロック別プロンプト)
Kohya S.
2023年1月3日 13:38
https://note.com/kohya_ss/n/n93b7c01b0547


Kohyaニキエッグイの作とったやんけ
割とワイのニーズにガッチリきとるで

38: 名無しのメタバースさん 2023/02/07(火) 05:39:20.59 ID:CS4iCG9c0

i2i元の透過情報維持する方法ってないんかな
髪の毛の間切り抜くの難しすぎやで

41: 名無しのメタバースさん 2023/02/07(火) 06:01:04.70 ID:041PgacH0

>>38

photoshop使おう
超楽やでAI使ったオブジェクト選択機能🤗

21: 名無しのメタバースさん 2023/02/07(火) 04:01:11.56 ID:Gigs2JHX0

キャラの顔覚えさせたいだけなら
生首だけの方が良い?
full bodyだと顔崩れる

22: 名無しのメタバースさん 2023/02/07(火) 04:06:25.45 ID:HfWKSfFi0

顔がドアップでかつ解像度も低くないのを
体と一緒に学習させるのがよいかと

46: 名無しのメタバースさん 2023/02/07(火) 08:17:54.36 ID:KVU6aMkzH

まだ始めて数日でとりあえず
キャラ再現LoRA何度かチャレンジしてるけど、
なかなか上手くいかんからとりあえず
学習元画像×エポック数はこれぐらい
欲しいっての教えてほしいわ
というか例えば「20_nnu girl」呼び出す時って
LoRA指定してから「nnu girl」でええんよな?

47: 名無しのメタバースさん 2023/02/07(火) 08:45:52.36 ID:BlYnfucT0

>>46

呼び出した方はあっとるで、
タグのテキストあるかどうかで
ちょっと変わってくるけど

そこらへんの設定は元画像のバリエーション
(公式1枚、きれいなの複数ある、ファンアートで絵柄ばらばら)
によって学習難易度変わってくるし
うまく行かない様子
(化け物、あんまり似ない、似てるけど同じ構図ばかり)とか
書くとええんやないかな

あと、NAIベースで学習してNAIで出力するとへなちょこやのに
AOM2で出すと神になったりするからそういう相性もあるかも

101: 名無しのメタバースさん 2023/02/07(火) 12:50:24.35 ID:In2Ly1eSr

>>47

公式絵(アニメ)のスクショから
顔アップメインで20枚だけど特徴的な髪色すら
学習してくれんしまだ足りんのかなあ
モデルデータはなんとなく7th_anime_v3で
学習させてるけどそこも変えてみるか

164: 名無しのメタバースさん 2023/02/07(火) 16:39:48.56 ID:qk2d8GOOa

昨日初めてlora動かすことに成功したんだけど
なんとなく服装と色合いに2割くらいの
学習した痕跡が見えるけど
顔は一切関係無しって感じだったわ
学習が足りて無かったんだろうなー
早く帰って数字変えていじくり回したい

61: 名無しのメタバースさん 2023/02/07(火) 10:24:36.36 ID:UIwH0CqT0

犬山civitaiにあるやん

https://civitai.com/models/7033/yurucampinuyamaaoi

62: 名無しのメタバースさん 2023/02/07(火) 10:27:45.29 ID:2sUaGrJGp

ワイもさっき見つけた
えらく軽いなコレ

63: 名無しのメタバースさん 2023/02/07(火) 10:32:10.85 ID:Hh5hv2lB0

大丈夫かな…

78: 名無しのメタバースさん 2023/02/07(火) 11:39:28.10 ID:3g1fNone0

一番困るのが避難所なくて中途半端に住人が
Discordだの3chだのTwitterだのあちこちに別れて
情報集めにくくなることだから…

81: 名無しのメタバースさん 2023/02/07(火) 11:45:01.60 ID:IBIoeyQK0

>>78

Discordが賑わいだした時期に
スレが過疎り始めたんよな
避難所か倉庫以外の別場所はワイはいらんで

86: 名無しのメタバースさん 2023/02/07(火) 12:04:05.41 ID:LV2gqnHnr

Discordそんなに活気あるの?
ワイモ入りたい、調べてみた感じなかったけど
ウィキとかに鯖とか書いてあるの?

88: 名無しのメタバースさん 2023/02/07(火) 12:13:31.30 ID:IBIoeyQK0

>>86

昔の話やから今はもう活気無いで
知識が無いと参加すらできんような
専門的な会話がたまにされるくらいや

94: 名無しのメタバースさん 2023/02/07(火) 12:25:36.96 ID:ievcbHuyM

>>86

https://discord.gg/kfn5tJEq

87: 名無しのメタバースさん 2023/02/07(火) 12:06:31.20 ID:sj+bZDhuM

cfgとか画像の縦横とかを設定した範囲で
ランダムにする拡張機能とかってないかな
画像縦横比とcfgによって出たり出なかったり
するものがあるとforeverしてるときに
一生当たり無しガチャ引きそうで怖いンゴね

92: 名無しのメタバースさん 2023/02/07(火) 12:19:07.23 ID:M7RBILxs0

>>87

randomizeってくExtension

98: 名無しのメタバースさん 2023/02/07(火) 12:44:01.42 ID:sj+bZDhuM

>>92

あるんか
家に帰ったら見てみるわサンガツ

90: 名無しのメタバースさん 2023/02/07(火) 12:16:39.93 ID:YUz/zfped

つい512×768で作っちゃう
そのサイズに拘る理由はないはずなんやが

94: 名無しのメタバースさん 2023/02/07(火) 12:25:36.96 ID:ievcbHuyM

>>90

NAI公式のデフォなのとhiresなしの2:3で
破綻なく安定する限界がそこだからって感じやね
640x960は一発は結構厳しい

96: 名無しのメタバースさん 2023/02/07(火) 12:29:54.21 ID:S6uAenvU0

>>90

ワイは576x704やな
ポートレートよりボリュームのある絵が出る(と感じる)
入れ替えて704x576にしても割と迫力ある絵になるし

97: 名無しのメタバースさん 2023/02/07(火) 12:31:28.71 ID:xpXKVBTUp

>>90

ワイは基本サイズそれでhiresで引き伸ばす
一発出しするよりかは破綻する確率が下がってるのかな
キャラ学習によってはある程度大きくしないと
綺麗に出なかったりするし

99: 名無しのメタバースさん 2023/02/07(火) 12:45:39.79 ID:GxkYq0WZd

>>90

わいは普段600×800で昔のアニメ絵を作る時だけ
B5判アス比の572×800とかにして
アニメ下敷きっぽさを出しとる
https://i.imgur.com/1PqmU22.jpg

ただこのアス比(1:√2)の時は
雑誌のスキャンみたいな端っこのパリパリとか
下に余白があって解説文みたいな構図も増える気がする
あくまで体感やが

93: 名無しのメタバースさん 2023/02/07(火) 12:24:58.72 ID:UIwH0CqT0

NovelAIって512×768に
特化して作ったみたいな話無かったっけ
それならNovelAIの血を引くモデルは
512×768の方がええんちゃうか

100: 名無しのメタバースさん 2023/02/07(火) 12:50:03.91 ID:E/90ZMd2M

512*832にしてる
16:9の壁紙にしやすいから

108: 名無しのメタバースさん 2023/02/07(火) 13:00:08.29 ID:7ZY6cwA+0

最近使い始めたんやが、
LoRAって0.6とかに弱めて
出力したほうが綺麗に出るのか?

112: 名無しのメタバースさん 2023/02/07(火) 13:05:56.09 ID:fzUQoJC/r

>>108

1が学習結果で0.6は
それを60%に薄めた状態やから
それの方がうまく出るようやったら
過学習でやりすぎやで
出力時に調整してまうと
必要な成分まで4割引になるから精度落ちるし
途中のepoch保存してるなら
それが1でうまく出ないか確かめた方がええ

115: 名無しのメタバースさん 2023/02/07(火) 13:13:40.51 ID:7ZY6cwA+0

>>112

1で丁度良く
出力されるようにしたらええんやな。
調整してみるで。
助かった。ありがとう。

110: 名無しのメタバースさん 2023/02/07(火) 13:01:50.94 ID:47qgnWp/0

ワイは人物アップ重視なら512x768、
背景重視・人物でも全身絵を
重視とかなら512x896で出しとるな
そこからよさげなやつを選んでi2iで
1024x1536(1792)に引き伸ばしとる
手間はかかるんやが全部highres.fixかけるより
ワイはこっちの方が好きやな

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1675709429/
_________________________________________________________________________________