471: 名無しのメタバースさん 2023/03/06(月) 03:00:57.36 ID:EOXZYYfQ0
色が変になる原因になってそうな
カーディガン組を排除した結果素材が
半数まで減ってしまいその状態で
step増やしたがやはり線がガビガビしてきた…
https://i.imgur.com/m3vpExu.png
474: 名無しのメタバースさん 2023/03/06(月) 03:19:27.67 ID:tcvtMJx+0
学習すべき要素数に対して次元数が高すぎると、
空いてる次元に余計なものを学習してカピりやすくなる
420: 名無しのメタバースさん 2023/03/06(月) 00:22:16.03 ID:tUOcUB8Q0
最新のLora拾っても
AOM2~AOM3でガビることが多くなって来たわ
調べたら「AOM2-ElysV3」とかいう
亜種があるみたいなんやけど、これってどこで拾えるんやろ
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
446: 名無しのメタバースさん 2023/03/06(月) 01:18:54.49 ID:TzUu0xpO0
>>420
「AOM2-nutmegmixGav2+ElysV3」で
ググったら上から5番目にmegaのリンクが
表示されてるけどこれじゃね?
一応リンク貼っとくけど責任持てんでhttps://mega.nz/folder/olJGRBoR#1I2DoAtIXlD_dD44pa_S0Q
476: 名無しのメタバースさん 2023/03/06(月) 03:32:13.20 ID:EOXZYYfQ0
16dim辺りでやってみるわ…
503: 名無しのメタバースさん 2023/03/06(月) 07:28:24.05 ID:9lyCDQoD0
AOM3でnaiで学習したLoRA使うと
強烈にガビガビになるんやけど
他ので学習したら上手くいくんやろか…
508: 名無しのメタバースさん 2023/03/06(月) 08:10:40.72 ID:PQT3H8AYa
>>503
ガビガビになるのは過学習だからなんちゃうか
ワイはAOMシリーズ全然使ってない異端だから
相性はわからんけど
512: 名無しのメタバースさん 2023/03/06(月) 08:21:56.46 ID:ZErlb/nFd
>>503
やっぱAOM3おかしいよな
AOM3A3つかってるけど、
同じLoRAでもこれだけ他のモデルと違って
あからさまに出力される画像が違うんだけど
521: 名無しのメタバースさん 2023/03/06(月) 08:30:41.45 ID:+LrglIpO0
aom3は実際相性悪いよ
どのlora使ってもそうなる
527: 名無しのメタバースさん 2023/03/06(月) 08:36:37.94 ID:Lrpfxiel0
>>521
ワイの環境やと一番AOM3がまともに出てくれるわ
学習のやり方にもよるんかね
566: 名無しのメタバースさん 2023/03/06(月) 10:19:40.52 ID:No/9ka2rM
>>527
その使ってるLoraの学習元が
AOM3だとかじゃなくて?
523: 名無しのメタバースさん 2023/03/06(月) 08:32:57.55 ID:BWJQHjg70
nai製だけどガビガビにはなってないかな
相性までは知らない
525: 名無しのメタバースさん 2023/03/06(月) 08:33:38.50 ID:zcFmK2HI0
aom3はマージ素材にして、
そのままはあまり使ってないな。
塗り以外はaom3ベース。
それはlorしっかり使えてる
526: 名無しのメタバースさん 2023/03/06(月) 08:35:19.13 ID:7Qd4RthH0
シチュ再現ならNAIで作ったのを
AOM3で使いまくってるけど
そんなに異常には感じないなぁ
キャラ再現とか画風再現は
やった事ないからわからんし、
層別適用してるからそれで
問題回避とかしたりできてるのかもしれん
後ガビの定義人それぞれだったりするから
モデル別の同シード同プロンプトの比較画像欲しいで
529: 名無しのメタバースさん 2023/03/06(月) 08:43:19.04 ID:Hu3WcoIZ0
ガビガビキャラLoRAもこのスレにあった
層別の1,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1適用すると
weight:1でもスッキリするで
534: 名無しのメタバースさん 2023/03/06(月) 09:04:09.91 ID:tot61/bna
>>529
ガビガビってIN層が悪さしてるから
OUTのみ層別適用させて解決ってこと?
548: 名無しのメタバースさん 2023/03/06(月) 09:53:25.67 ID:Hu3WcoIZ0
>>534
理屈は分からんが
上手くいったっていうのが正直なとこやな
これに更にとか構図LoRA併用するときは仰け反りニキの
0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0使ってるで
ほんま感謝やで層別LoRA
551: 名無しのメタバースさん 2023/03/06(月) 09:58:49.97 ID:tot61/bna
>>548
ちょっと試してみるわサンガツやで
543: 名無しのメタバースさん 2023/03/06(月) 09:33:36.14 ID:jO9k6rMN0
ガビガビ問題、誰も現物を上げないので
それぞれがそれぞれの基準で語ってる気がす
545: 名無しのメタバースさん 2023/03/06(月) 09:46:04.86 ID:ydyi8oNPM
ガビガビってなにを差しているのかわからん
過学習で濃ゆい感じになってる状態のこと?
547: 名無しのメタバースさん 2023/03/06(月) 09:49:44.09 ID:ZErlb/nFd
>>545
なんというか、ピカソのゲルニカみたいになる
550: 名無しのメタバースさん 2023/03/06(月) 09:58:22.95 ID:ydyi8oNPM
ゲルニカをガビガビと表現されると
伝わらない気がするな
552: 名無しのメタバースさん 2023/03/06(月) 10:00:52.52 ID:luuliJbM0
AOM3は使っててかなり我が強いモデルな気がする
その分上手く噛み合ったときの絵は最高やが
確かに手持ちにもちょこちょこ相性の悪いLoRAがあるわ
555: 名無しのメタバースさん 2023/03/06(月) 10:07:17.08 ID:LVsZFicY0
ぼやける→ガビガビ
ブロックノイズ→ガビガビ
ゲルニカ→ガビガビ
他にもあるか?
556: 名無しのメタバースさん 2023/03/06(月) 10:07:19.60 ID:qAFFP1qT0
ガビガビはこれやろ
https://i.imgur.com/GGjgqrA.png
ここからさらに過学習させていくと
ゲルニカになるイメージや
557: 名無しのメタバースさん 2023/03/06(月) 10:08:45.53 ID:WNKNsgQT0
アウトラインが乱れる
過剰な服のシワやシワの影の描写
背景に謎の乱れ
ここらへんが過学習確定やね
559: 名無しのメタバースさん 2023/03/06(月) 10:09:27.95 ID:ZvkvKOVj0
LoRA同士での画風汚染気にして
いまワイもいろいろやっとるけど、
kohyaニキが領域別LoRA実装してくれたら
気にしなくてよくなりそうな気はしとるんよな
560: 名無しのメタバースさん 2023/03/06(月) 10:13:18.10 ID:fLIWfAhJa
あと無駄に背景の光が強いとかも過学習やね
眩しすぎて草生えるレベル
562: 名無しのメタバースさん 2023/03/06(月) 10:17:30.53 ID:BYxWt2Jv0
ワイはkatanukiで白背景派だから
背景が真っ白にならないエポックを
試して採用してる
563: 名無しのメタバースさん 2023/03/06(月) 10:17:50.73 ID:iOHceMW5d
層別LoRAの設定って基本手探りなんか?
564: 名無しのメタバースさん 2023/03/06(月) 10:18:59.31 ID:ZvkvKOVj0
>>563
wikiにいくつかパターン書いてくれたニキがおったやろ
あれから試してよさげなのを探ってつくりゃええんやないの
565: 名無しのメタバースさん 2023/03/06(月) 10:18:59.65 ID:A1u+1VGG0
階層プロは日本語プリセット作ってクレメンス
712: 名無しのメタバースさん 2023/03/06(月) 13:28:27.58 ID:qZ+zuzIV0
同時使用した2つのlora間の色移りを体験しました
loraで学習させた服装の色指定が、違うloraモデルで
学習させたヘッドバンドに移っています
ヘッドバンド要素だけをファインチューンで除外して実験しています
結果が出たら報告しようと思います
714: 名無しのメタバースさん 2023/03/06(月) 13:30:23.35 ID:ZvkvKOVj0
同時併用したら共通する部分は汚染されるで
正則化画像いれてへんのやったら
そらgirlとかどろっどろやろ
715: 名無しのメタバースさん 2023/03/06(月) 13:32:29.96 ID:CMPDDDjL0
背景なら背景専用のcheckpointが
転がってそうなもんやけど
719: 名無しのメタバースさん 2023/03/06(月) 13:44:26.87 ID:u3Hih0k90
そろそろloconやるかと思って学習させ始めてみたら
ついに学習速度がit/sからs/itになってしまった
725: 名無しのメタバースさん 2023/03/06(月) 13:56:23.51 ID:9ibyg9TtM
階層Loraでblock weightで聞きたいんだけど、
プロンプト書くときに
727: 名無しのメタバースさん 2023/03/06(月) 14:00:04.67 ID:u3Hih0k90
>>725
そこに全部書くんじゃなくて
下のblock weightの所のpresetsに
書いて反映してから
やで
792: 名無しのメタバースさん 2023/03/06(月) 15:22:37.91 ID:9ibyg9TtM
>>727,729
そうなんか!サンガツ!
あともう一個聞きたいんだけど、
wikiに書いてあった
例↓)
F:0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0
F=enable_OUT03-04-05:0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0
の書き方、なんで上のF:と下のF=で
同じ事を違う書き方で2回書いてるの?
Block Weightのreadmeにも
書いてなかったのでなんでかなと思って
729: 名無しのメタバースさん 2023/03/06(月) 14:04:09.45 ID:tUOcUB8Q0
>>725
階層LoraのOpen Textに書くのは
「略称:0,0,0,0,0,1~~」だけやで
たとえばwikiにあるやつやと、
絵柄無視のポージング再現が
「CT:0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0」
これをRingoのLoraに強度1でやりたいんなら
階層Loraのtextに「CT:0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0」と書いて、
プロンプトには
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1677998901/
_________________________________________________________________________________
コメントする