471: 名無しのメタバースさん 2023/03/06(月) 03:00:57.36 ID:EOXZYYfQ0

色が変になる原因になってそうな
カーディガン組を排除した結果素材が
半数まで減ってしまいその状態で
step増やしたがやはり線がガビガビしてきた…
https://i.imgur.com/m3vpExu.png

474: 名無しのメタバースさん 2023/03/06(月) 03:19:27.67 ID:tcvtMJx+0

学習すべき要素数に対して次元数が高すぎると、
空いてる次元に余計なものを学習してカピりやすくなる

420: 名無しのメタバースさん 2023/03/06(月) 00:22:16.03 ID:tUOcUB8Q0

最新のLora拾っても
AOM2~AOM3でガビることが多くなって来たわ
調べたら「AOM2-ElysV3」とかいう
亜種があるみたいなんやけど、これってどこで拾えるんやろ

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku


446: 名無しのメタバースさん 2023/03/06(月) 01:18:54.49 ID:TzUu0xpO0

>>420

「AOM2-nutmegmixGav2+ElysV3」で
ググったら上から5番目にmegaのリンクが
表示されてるけどこれじゃね?
一応リンク貼っとくけど責任持てんでhttps://mega.nz/folder/olJGRBoR#1I2DoAtIXlD_dD44pa_S0Q

476: 名無しのメタバースさん 2023/03/06(月) 03:32:13.20 ID:EOXZYYfQ0

16dim辺りでやってみるわ…

503: 名無しのメタバースさん 2023/03/06(月) 07:28:24.05 ID:9lyCDQoD0

AOM3でnaiで学習したLoRA使うと
強烈にガビガビになるんやけど
他ので学習したら上手くいくんやろか…

508: 名無しのメタバースさん 2023/03/06(月) 08:10:40.72 ID:PQT3H8AYa

>>503

ガビガビになるのは過学習だからなんちゃうか
ワイはAOMシリーズ全然使ってない異端だから
相性はわからんけど

512: 名無しのメタバースさん 2023/03/06(月) 08:21:56.46 ID:ZErlb/nFd

>>503

やっぱAOM3おかしいよな
AOM3A3つかってるけど、
同じLoRAでもこれだけ他のモデルと違って
あからさまに出力される画像が違うんだけど

521: 名無しのメタバースさん 2023/03/06(月) 08:30:41.45 ID:+LrglIpO0

aom3は実際相性悪いよ 
どのlora使ってもそうなる

527: 名無しのメタバースさん 2023/03/06(月) 08:36:37.94 ID:Lrpfxiel0

>>521

ワイの環境やと一番AOM3がまともに出てくれるわ
学習のやり方にもよるんかね

566: 名無しのメタバースさん 2023/03/06(月) 10:19:40.52 ID:No/9ka2rM

>>527

その使ってるLoraの学習元が
AOM3だとかじゃなくて?

523: 名無しのメタバースさん 2023/03/06(月) 08:32:57.55 ID:BWJQHjg70

nai製だけどガビガビにはなってないかな
相性までは知らない

525: 名無しのメタバースさん 2023/03/06(月) 08:33:38.50 ID:zcFmK2HI0

aom3はマージ素材にして、
そのままはあまり使ってないな。
塗り以外はaom3ベース。
それはlorしっかり使えてる

526: 名無しのメタバースさん 2023/03/06(月) 08:35:19.13 ID:7Qd4RthH0

シチュ再現ならNAIで作ったのを
AOM3で使いまくってるけど
そんなに異常には感じないなぁ
キャラ再現とか画風再現は
やった事ないからわからんし、
層別適用してるからそれで
問題回避とかしたりできてるのかもしれん

後ガビの定義人それぞれだったりするから
モデル別の同シード同プロンプトの比較画像欲しいで

529: 名無しのメタバースさん 2023/03/06(月) 08:43:19.04 ID:Hu3WcoIZ0

ガビガビキャラLoRAもこのスレにあった
層別の1,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1適用すると
weight:1でもスッキリするで

534: 名無しのメタバースさん 2023/03/06(月) 09:04:09.91 ID:tot61/bna

>>529

ガビガビってIN層が悪さしてるから
OUTのみ層別適用させて解決ってこと?

548: 名無しのメタバースさん 2023/03/06(月) 09:53:25.67 ID:Hu3WcoIZ0

>>534

理屈は分からんが
上手くいったっていうのが正直なとこやな
これに更にとか構図LoRA併用するときは仰け反りニキの
0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0使ってるで
ほんま感謝やで層別LoRA

551: 名無しのメタバースさん 2023/03/06(月) 09:58:49.97 ID:tot61/bna

>>548

ちょっと試してみるわサンガツやで

543: 名無しのメタバースさん 2023/03/06(月) 09:33:36.14 ID:jO9k6rMN0

ガビガビ問題、誰も現物を上げないので
それぞれがそれぞれの基準で語ってる気がす

545: 名無しのメタバースさん 2023/03/06(月) 09:46:04.86 ID:ydyi8oNPM

ガビガビってなにを差しているのかわからん
過学習で濃ゆい感じになってる状態のこと?

547: 名無しのメタバースさん 2023/03/06(月) 09:49:44.09 ID:ZErlb/nFd

>>545

なんというか、ピカソのゲルニカみたいになる

550: 名無しのメタバースさん 2023/03/06(月) 09:58:22.95 ID:ydyi8oNPM

ゲルニカをガビガビと表現されると
伝わらない気がするな

552: 名無しのメタバースさん 2023/03/06(月) 10:00:52.52 ID:luuliJbM0

AOM3は使っててかなり我が強いモデルな気がする
その分上手く噛み合ったときの絵は最高やが
確かに手持ちにもちょこちょこ相性の悪いLoRAがあるわ

555: 名無しのメタバースさん 2023/03/06(月) 10:07:17.08 ID:LVsZFicY0

ぼやける→ガビガビ
ブロックノイズ→ガビガビ
ゲルニカ→ガビガビ
他にもあるか?

556: 名無しのメタバースさん 2023/03/06(月) 10:07:19.60 ID:qAFFP1qT0

ガビガビはこれやろ
https://i.imgur.com/GGjgqrA.png
ここからさらに過学習させていくと
ゲルニカになるイメージや

557: 名無しのメタバースさん 2023/03/06(月) 10:08:45.53 ID:WNKNsgQT0

アウトラインが乱れる
過剰な服のシワやシワの影の描写
背景に謎の乱れ

ここらへんが過学習確定やね

559: 名無しのメタバースさん 2023/03/06(月) 10:09:27.95 ID:ZvkvKOVj0

LoRA同士での画風汚染気にして
いまワイもいろいろやっとるけど、
kohyaニキが領域別LoRA実装してくれたら
気にしなくてよくなりそうな気はしとるんよな

560: 名無しのメタバースさん 2023/03/06(月) 10:13:18.10 ID:fLIWfAhJa

あと無駄に背景の光が強いとかも過学習やね
眩しすぎて草生えるレベル

562: 名無しのメタバースさん 2023/03/06(月) 10:17:30.53 ID:BYxWt2Jv0

ワイはkatanukiで白背景派だから
背景が真っ白にならないエポックを
試して採用してる

563: 名無しのメタバースさん 2023/03/06(月) 10:17:50.73 ID:iOHceMW5d

層別LoRAの設定って基本手探りなんか?

564: 名無しのメタバースさん 2023/03/06(月) 10:18:59.31 ID:ZvkvKOVj0

>>563

wikiにいくつかパターン書いてくれたニキがおったやろ
あれから試してよさげなのを探ってつくりゃええんやないの

565: 名無しのメタバースさん 2023/03/06(月) 10:18:59.65 ID:A1u+1VGG0

階層プロは日本語プリセット作ってクレメンス

712: 名無しのメタバースさん 2023/03/06(月) 13:28:27.58 ID:qZ+zuzIV0

同時使用した2つのlora間の色移りを体験しました
loraで学習させた服装の色指定が、違うloraモデルで
学習させたヘッドバンドに移っています
ヘッドバンド要素だけをファインチューンで除外して実験しています
結果が出たら報告しようと思います

714: 名無しのメタバースさん 2023/03/06(月) 13:30:23.35 ID:ZvkvKOVj0

同時併用したら共通する部分は汚染されるで
正則化画像いれてへんのやったら
そらgirlとかどろっどろやろ

715: 名無しのメタバースさん 2023/03/06(月) 13:32:29.96 ID:CMPDDDjL0

背景なら背景専用のcheckpointが
転がってそうなもんやけど

719: 名無しのメタバースさん 2023/03/06(月) 13:44:26.87 ID:u3Hih0k90

そろそろloconやるかと思って学習させ始めてみたら
ついに学習速度がit/sからs/itになってしまった

725: 名無しのメタバースさん 2023/03/06(月) 13:56:23.51 ID:9ibyg9TtM

階層Loraでblock weightで聞きたいんだけど、
プロンプト書くときに
ってLoraなら

727: 名無しのメタバースさん 2023/03/06(月) 14:00:04.67 ID:u3Hih0k90

>>725

そこに全部書くんじゃなくて
下のblock weightの所のpresetsに
書いて反映してから

やで

792: 名無しのメタバースさん 2023/03/06(月) 15:22:37.91 ID:9ibyg9TtM

>>727
,729
そうなんか!サンガツ!

あともう一個聞きたいんだけど、
wikiに書いてあった
例↓)
F:0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0
F=enable_OUT03-04-05:0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0
の書き方、なんで上のF:と下のF=で
同じ事を違う書き方で2回書いてるの?
Block Weightのreadmeにも
書いてなかったのでなんでかなと思って

729: 名無しのメタバースさん 2023/03/06(月) 14:04:09.45 ID:tUOcUB8Q0

>>725

階層LoraのOpen Textに書くのは
「略称:0,0,0,0,0,1~~」だけやで
たとえばwikiにあるやつやと、
絵柄無視のポージング再現が
「CT:0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0」

これをRingoのLoraに強度1でやりたいんなら
階層Loraのtextに「CT:0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0」と書いて、
プロンプトにはでええんや

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1677998901/
_________________________________________________________________________________