467: 名無しのメタバースさん 2022/12/25(日) 08:20:37.02 ID:WNKzo2la0

134やけど一応だれかモデル要る?
ほぼアビスオレンジと同じだけど
ちょっとだけ116スレ754に寄せてあって
i2iしたときに質感がそのまま出しやすくなってるバージョン

研究:
インスタを優先するとNAIブロンプトが効きづらく、
解像度を上げたときに1Girlとかが破綻して
大量のキャラが出るとかが起こりやすい
逆にNAIブロンプトを強く効くようにすると
i2iの時にNAI(とエニシング)が優先されて質感が悪くなる

結果:
ギリギリ両方成り立つ真ん中のラインで出す

469: 名無しのメタバースさん 2022/12/25(日) 08:22:33.09 ID:r9Cra3X60

>>467

欲しいで。

470: 名無しのメタバースさん 2022/12/25(日) 08:25:30.64 ID:cSEMYKX5M

>>467

ほっし!

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku



472: 名無しのメタバースさん 2022/12/25(日) 08:34:16.55 ID:WNKzo2la0

名付けてabyss_7th_layerモデル
https://63.gigafile.nu/0101-g464cd14712603de668ae14ff053322f4

ちなi2i以外のタイミングだと
ほとんどアビスオレンジと変わらん
あとインスタを優先した副次効果でほんの少しだけ
マジで気のせいレベルで指が破綻しづらい
t2iで一回出したあとi2iでメチャクチャ詰めた勝負をする奴用や

485: 名無しのメタバースさん 2022/12/25(日) 09:13:43.65 ID:tQE/SXjK0

>>472

指がワイの階層マージモデルより
かなり改善されてるわ
差し支えなければレシピを知りたい
7th layerの重みを替えるんか?

497: 名無しのメタバースさん 2022/12/25(日) 09:49:11.69 ID:WNKzo2la0

>>485

ものすごいアレな話やけど
一回マージしたモデルをもう一回逆のレシピで戻すと
「ものすごく似てるけどちょっと違うモデル」が出来る
それはちょっとだけ性質が違うんで
確かそれを素材にしてると思う(違ったかもしれん)
あまりにも深遠すぎる話なんで
アビス深界七層から取ってabyss 7th layerや

515: 名無しのメタバースさん 2022/12/25(日) 10:23:22.99 ID:tQE/SXjK0

>>497

なるほど
アビスについて詳しくなくて申し訳ない

522: 名無しのメタバースさん 2022/12/25(日) 10:58:45.94 ID:zk5K9SGOM

>>472

これ再アップしてええか?

530: 名無しのメタバースさん 2022/12/25(日) 11:11:02.72 ID:WNKzo2la0

>>522

100日に設定してあるからこの進化速度で
3か月後まで使ってるとは思えんけどええで

542: 名無しのメタバースさん 2022/12/25(日) 11:43:01.43 ID:zk5K9SGOM

>>530

サンガツ
とりあえず再アップしとくわ

475: 名無しのメタバースさん 2022/12/25(日) 08:47:48.04 ID:Fn+0wQgYa

久々dreamboothアプデしたんやけど
なんか処理時間早くなってるやん、
いつからやろ?

477: 名無しのメタバースさん 2022/12/25(日) 08:48:48.62 ID:jqebhyli0

普通に使う場合は
AbyssOrangeMix_base.ckptでええんかな
使い分けがよく分からん

483: 名無しのメタバースさん 2022/12/25(日) 09:11:37.78 ID:tQE/SXjK0

ACertainThingにインスタを
階層マージしても全然良いものにならんな

460: 名無しのメタバースさん 2022/12/25(日) 07:46:33.76 ID:qqD1Otlx0

わかったわ

>加重合計:Weighted sumのとき
>A*(1-M)+B*Mです
>
>差分:Add Differenceのとき
>A+((B-C)*M)です。
Wikiのこれは下の方が間違っていて正しくはこうや
A*(1-M)+(B-C)*M

A=モデル1 B=モデル1 C=モデル2
だからこれで倍率1のAdd Defferenceすれば
1から2を引いたモデルを得られるで
半分だけ引きたい場合は0.5にすればええんや

462: 名無しのメタバースさん 2022/12/25(日) 07:53:43.78 ID:qqD1Otlx0

いや>>460も違うわこれだと
A+B+Cで倍率1のAdd Defferenceした時に
Aの要素が全く入らないことになるやん
もうわからん

487: 名無しのメタバースさん 2022/12/25(日) 09:18:12.58 ID:I7ysN5NQ0

>>462

A*(1-M)+(B-C)*Mが正しいはずや
中身は各重みを加重平均しとるだけやけど
大きさが合わん箇所は大きい方のモデルのを
そのまま使っとるからM=1でも
モデルAの成分が残る場合がある
長文書いたんやが全部消えたから今から書き直すで

491: 名無しのメタバースさん 2022/12/25(日) 09:30:49.36 ID:I7ysN5NQ0

>>487

続き↓はあくまでも超単純化した例

A=[1,2,3,4,5]; B=[2,3,5,7]; C=[1,1,2]; M=0.3 の場合
A*(1-M)+(B-C)*M
=[1,2,3,4,5]*0.7+([2,3,5,7]-[1,1,2])*0.3
=[1,2,3,4,5]*0.7+[1,2,3,7]*0.3
=[0.7,1.4,2.1,2.8,3.5]+[0.3,0.6,0.9,2.1]
=[1,2,3,4.9,3.5]
間違ってるとこあったらすまんな

465: 名無しのメタバースさん 2022/12/25(日) 07:59:31.86 ID:qqD1Otlx0

マージってもしかして
重複する要素は無視されるんか?
重複する要素は強くなると勝手に思ってたんだが
無視されるなら辻褄が合うわ

492: 名無しのメタバースさん 2022/12/25(日) 09:37:54.83 ID:DncP4JBC0

A+((B-C)*M)
これで正しいよ 実装されてるコード上は
実際どう動いてるかは神のみぞ知る

496: 名無しのメタバースさん 2022/12/25(日) 09:47:39.69 ID:qqD1Otlx0

>>492

それだとA・B・AでDiffすれば
Bに含まれているAの要素が抜けて
Aに差分だけ加えられることになるやん?
でもそうはならなかったんよ……

A・B・A の Diff1 = B
A・B・A の Diff0.5 = A+BのSum0.5

1番目と3番目が同じモデルだと
勝手に動作が変わるのかと思って3番めに
僅かに変更を加えても同じ結果でもーわからん

501: 名無しのメタバースさん 2022/12/25(日) 09:57:47.10 ID:DncP4JBC0

>>496

人様のノートを張り付けるのも
あれやけどちょっと触れられてるで
ttps://note.com/bbcmc/n/n2d4765b4bd47

実装されてるコードはあくまでもA+((B-C)*M)
ただこの通りに動作してないのも明白で、
どう作用してるかを人間は理解していない状態や

503: 名無しのメタバースさん 2022/12/25(日) 10:02:08.30 ID:qqD1Otlx0

>>501

つまり俺たちは雰囲気でマージを
やっているを地で行くしかないんか😭

506: 名無しのメタバースさん 2022/12/25(日) 10:07:07.92 ID:I7ysN5NQ0

>>496

A+((B-C)*M)と
A+(B-A)*1=B
A+(B-A)*0.5=A+B*0.5-A*0.5=A*0.5+B*0.5に
矛盾は無い気がする

511: 名無しのメタバースさん 2022/12/25(日) 10:18:35.70 ID:qqD1Otlx0

>>506

あれ?ほんまやん
そうか引かれた結果は0じゃなくて
マイナスになるんか……

622: 名無しのメタバースさん 2022/12/25(日) 16:04:34.84 ID:qqD1Otlx0

>>506

すまんこれはどうやら
マイナスになってるのが原因で
B-Aでマイナスになった要素はA+Bで
相されて結果Bだけが残るということらしい
勝手に0以下にはならんと思ってたわ……

648: 名無しのメタバースさん 2022/12/25(日) 17:13:44.01 ID:Ukr+2T5W0

>>622

なるるる…俺もマイナスは
考えてなかった…奥が深い!
ベースモデルと派生の素性分からんと
マージは上手くいかんわけやな
頭の隅にあると助かる情報の検証ありがとう

493: 名無しのメタバースさん 2022/12/25(日) 09:38:02.36 ID:jqebhyli0

safetensorsって新しいファイル形式なのか
ckptに名前変えても使えなかったわ
auto1111アップデートしてくる

495: 名無しのメタバースさん 2022/12/25(日) 09:45:44.92 ID:I7ysN5NQ0

ドヤ顔で書いたけど違ったんか恥ずかしいわ
本家のはどこにあるか分からんかったから
merge-block-weightedの方を見たんやが
読み直したらbase_alphaの計算やったわ忘れてくれ

501: 名無しのメタバースさん 2022/12/25(日) 09:57:47.10 ID:DncP4JBC0

>>496

人様のノートを張り付けるのも
あれやけどちょっと触れられてるで
ttps://note.com/bbcmc/n/n2d4765b4bd47

実装されてるコードはあくまでもA+((B-C)*M)
ただこの通りに動作してないのも明白で、
どう作用してるかを人間は理解していない状態や

498: 名無しのメタバースさん 2022/12/25(日) 09:53:16.58 ID:WNKzo2la0

あとAbyss系モデル(ハッシュffa7b160のモデル)
はHNでちょっとでも深く学習させると
リアル寄りにしようとし過ぎて
メチャクチャ気持ち悪い事になるから
NAIでほんの少し学習させて
持ち込んだほうがいい結果出たで

499: 名無しのメタバースさん 2022/12/25(日) 09:53:20.03 ID:I7ysN5NQ0

マージモデルのデフォルト名は
A*(1-M)+B*Mになっとるのって不具合なんやろか
今から寝るわ お騒がせした

519: 名無しのメタバースさん 2022/12/25(日) 10:43:13.13 ID:r9Cra3X60

wikiのHNにある
「Gradient蓄積ステップは4または8を設定します。
この設定は学習がやや遅くなる欠点の代わりに
VRAMの消費を抑える効果があります。

Steps for cycleの値は
「学習素材数 ÷ Gradient蓄積ステップ」した値を
10倍にした数値を入力します。端数は切り捨てです。」
を設定すると確実に
「Applying xformers cross attention optimization.」
と出て学習が止まるんやが。
これむしろVRAM消費上がってるんやないやろか。

549: 名無しのメタバースさん 2022/12/25(日) 11:58:05.82 ID:Q67WvrYPM

>>519

batch=素材枚数にしてしまえれば
それが一番正確に学習してくれるけど
そんなんいくらVRAMあっても足らんから
変わりにbatch✕勾配を素材枚数にすることで
現実的なVRAM消費に抑えられるって考え方や

VRAM足りんならbatchを下げて勾配を上げる

528: 名無しのメタバースさん 2022/12/25(日) 11:07:31.39 ID:pX70GYBba

クッソ初歩的なことかもしれへんが誰か教えてや
インスタのver. 2が. safetensorって
拡張子になっとるんやがこれは
このまま. ckptと同じように使ってええんか?

531: 名無しのメタバースさん 2022/12/25(日) 11:19:24.53 ID:Uyx89ilQ0

>>528

ええけどSD側アプデしてからやないと
認識せんで

532: 名無しのメタバースさん 2022/12/25(日) 11:23:41.24 ID:HfWyh8Ccr

>>528

問題ない。
もし認識しないようならソフトが
古すぎるのでいい加減に更新すべきってことで。
マージとかの生成結果も
もう全部safetensorにしてるわ。

539: 名無しのメタバースさん 2022/12/25(日) 11:39:48.75 ID:pX70GYBba

>>532

サンガツ!
導入したの最近やから一応最新やとは思うが
認識しなかったらアプデするわ

534: 名無しのメタバースさん 2022/12/25(日) 11:30:43.25 ID:Rc45jSOd0

ローカルやるにあたってグラボ変えたいんやが
3060と3090って全然レベル変わるんか?

541: 名無しのメタバースさん 2022/12/25(日) 11:42:44.69 ID:HfWyh8Ccr

>>534

生成時間も学習時間も全然違う。
得られる結果が変わるのは12GBで足りない処理だけ。

543: 名無しのメタバースさん 2022/12/25(日) 11:50:01.71 ID:Rc45jSOd0

>>541

サンガツ
もう少し検討してみるわ

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1671803055/
_________________________________________________________________________________