691: 名無しのメタバースさん 2023/03/08(水) 02:58:10.69 ID:2EXa8q350

目を大きくするLoraが需要ありそうなんで上げとくよ
https://huggingface.co/2vXpSwA7/
iroiro-lora/blob/main/test/test-bigeye.safetensors
いろんなモデルで試したけど、大体問題なく使えるよ
https://i.imgur.com/zaRoIAy.png

ちなみにどうやってコレ作ったかってーと
適当な素材1枚でコピー機作る→
素材を編集して目を拡大して、
それ1枚使ってコピー機ベースで学習→
「目の大きさ」だけ学習出来る
学習が、モデルの持つ特徴と
素材画像との差分を学習するっていうなら
ベースを限りなく素材に近づけて、
必要な所だけ学習してやりゃいいじゃないって発想よ

761: 名無しのメタバースさん 2023/03/08(水) 10:05:49.96 ID:96nPoB+b0

>>691

ベースにするコピー機モデルはどうやって作ったらええんや?
同じ構図しか出ない過学習LoraをSDモデルにマージでOK?

884: 名無しのメタバースさん 2023/03/08(水) 15:34:35.40 ID:EtmjTNhTa

>>691

コピー機loraの学習パラメータ知りたいから
コピー機の方もアップしてクレメンス

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku


697: 名無しのメタバースさん 2023/03/08(水) 03:28:55.85 ID:Ts/IOegy0

画期的な手法だと思ったけど
頭が悪すぎて理解できなかったわ

1枚の画像でコピー機モデル作成

画像の加工化して目をデカくする

加工した画像をコピー機モデルを学習元にLora作成

ってこと?

724: 名無しのメタバースさん 2023/03/08(水) 07:30:28.32 ID:q/mwUGyL0

コピー機って普通にそれ専用の
モデル作ることじゃないんか?

729: 名無しのメタバースさん 2023/03/08(水) 07:52:33.19 ID:tJNDSs90r

>>724

コピー機:一見綺麗に出力されているように見えても、
実際は学習素材の構図そのまま出力してるだけで、
応用が全く効かないもの

っていう認識だわ

721: 名無しのメタバースさん 2023/03/08(水) 07:00:14.99 ID:C37WMLRt0

コピー機の編集ってクリスタとか
使っていじるってことなんやろか

744: 名無しのメタバースさん 2023/03/08(水) 08:45:50.58 ID:2EXa8q350

あー、コピー機ってのはアレよ
プロンプト入れずに生成したら、
ほぼ元絵まんまの出力になるまで学習して
それを学習元のモデルにマージしたやつのこと
出来たモデルをベースに、元絵の目を
クリスタのゆがみブラシで
大きくしてやった絵で学習したのよ、それだけ

911: 名無しのメタバースさん 2023/03/08(水) 16:37:17.34 ID:EtmjTNhTa

というか>>744で説明してくれてたんやなサンガツ

754: 名無しのメタバースさん 2023/03/08(水) 09:51:44.28 ID:EZd9TAwTM

目玉コピー機法は
インペイントスケッチの汎用化って感じかな
概念を学習させられたらスゴイ

763: 名無しのメタバースさん 2023/03/08(水) 10:14:01.05 ID:v1sEPHOVa

わかりにくい用語作るのやめてくれや

766: 名無しのメタバースさん 2023/03/08(水) 10:17:16.08 ID:EZd9TAwTM

コピー機モデルってlr爆上げすればええんか?
ガビガビにならず意図して
元絵出そうとすると難しいな

768: 名無しのメタバースさん 2023/03/08(水) 10:23:49.29 ID:EZd9TAwTM

昔dbで作ったコピー機山ほどあるけど
よく考えたら差分絵を描く画力が無かった
とりあえずcnで頑張ってみるか

769: 名無しのメタバースさん 2023/03/08(水) 10:26:37.40 ID:w1wTNJYHH

コピー機Loraって要は超過学習Loraのこと?

807: 名無しのメタバースさん 2023/03/08(水) 12:13:52.01 ID:Ts/IOegy0

caption_dropout_rateイマイチ
どうメリットがあるのか理解できてないわ

0.01ならタグの中からランダムに1%外して
学習するって認識やけど、
それで強い学習になるんか…?

865: 名無しのメタバースさん 2023/03/08(水) 15:01:14.92 ID:Kz92joEHd

層別loraマジで無限に時間食うな
比較使ってloraごとに調整いる分
精度上がりまくるンゴ

742: 名無しのメタバースさん 2023/03/09(木) 17:35:48.85 ID:3uwJqUbe0

ろーらやらろこんやらろこりすやら
そろそろ赤ちゃんワイは
名前すら覚えられんようになるで

748: 名無しのメタバースさん 2023/03/09(木) 17:40:27.95 ID:ikK3jEbI0

locon入れたものの一度も使わんかったけど
そのままpip install リコリスリコイルしてええんか?

751: 名無しのメタバースさん 2023/03/09(木) 17:45:07.00 ID:aj5vRQ3Td

一回もロコン使わないままリコリス来てしまった

753: 名無しのメタバースさん 2023/03/09(木) 17:46:14.73 ID:icf/Yk5s0

正則化画像の有無も宗派や
ワイはいまはLionも試しとるが
もうこれも宗派やな?

762: 名無しのメタバースさん 2023/03/09(木) 17:56:58.49 ID:1ZoLtQCw0

>>753

正則化はほぼ誰も使ってないけど
なぜか信者おる宗教
lionはここだとまともに検証されたことないね

769: 名無しのメタバースさん 2023/03/09(木) 18:01:43.87 ID:icf/Yk5s0

>>762

ワイはLatentCoupleでの
多数適用とかやるから現状つかっとるよ正則化

Lionは何本か試した限りAdafactorよりは
好みな気はするけどもうちょい回さんとわからんな……
早めに精度出てくれる感じはあるがそれも善しあしやしなあ

756: 名無しのメタバースさん 2023/03/09(木) 17:49:17.38 ID:icf/Yk5s0

なーーーんも考えたくない、
再現率も低くてええ、とにかく動くか確認したい、
ちゅーならDAdaptionでLRは
のきなみ1ぶっこんどくという手もあるで

766: 名無しのメタバースさん 2023/03/09(木) 17:59:20.02 ID:at9In22/a

>>756

学習自体は動いてるんや
ファイルは出来るし

761: 名無しのメタバースさん 2023/03/09(木) 17:55:50.61 ID:Zm8lmVdp0

レシピ通りに作らない・味見をしない・ちょい足しアレンジが好き

これはメシマズスレのテンプレやで

763: 名無しのメタバースさん 2023/03/09(木) 17:57:17.23 ID:9PZM8RLK0

Adafactorやるのあの背景が
黄土色っぽい解説サイトのせいやろ

765: 名無しのメタバースさん 2023/03/09(木) 17:58:27.54 ID:1fSt7viT0

半日見てないと浦島太郎になるコンテンツ

768: 名無しのメタバースさん 2023/03/09(木) 18:00:26.20 ID:peYyar4D0

まぁテンプレのwikiの解説にも
AdaFactorのが貼ってあるしな

770: 名無しのメタバースさん 2023/03/09(木) 18:02:32.47 ID:spDQvG8aa

ついこないだ赤ちゃん用のgui作ってくれたのあるから
あれ使っとけば特に問題おこらないと思うんだけどな

775: 名無しのメタバースさん 2023/03/09(木) 18:06:08.16 ID:zZkX2nCX0

もっと正確に言うと要らないんじゃなくて
学習の効果が出るのが遅くなるから
とりあえず動いてる確認をするのが
目的の場合邪魔になるんや
総step数とか計算してやれるようになってから
試す分にはあってもええで

779: 名無しのメタバースさん 2023/03/09(木) 18:14:09.27 ID:9PZM8RLK0

Kohya_LoRA_GUIニキ、リコリス対応待ってるわ

790: 名無しのメタバースさん 2023/03/09(木) 18:27:38.48 ID:c2csJ05y0

LoRA dim128 512で作った過去のものを
色々なlocon 色々なdim 1024で何度もやり直してるけど
総合的な完成度でいまいち超えられないでいる

801: 名無しのメタバースさん 2023/03/09(木) 18:41:40.97 ID:Vcp7HbtOa

>>790

何を改善したいんや?
アクセサリーや髪型を後もう少し再現度上げたい
とかならそこら辺いじればええんやろけど
根本的に底上げかけたいなら学習画像と
キャプションいじるのが一番やろ

813: 名無しのメタバースさん 2023/03/09(木) 18:58:08.80 ID:c2csJ05y0

>>801

改善したいのは容量やな
dim128はさすがにデカいのでloconの32とかで
代替出来る設定固めたいんやけどなかなか上手く行かん

819: 名無しのメタバースさん 2023/03/09(木) 19:07:20.73 ID:YrAdUMuGa

>>813

容量か
だとすると1024で
やるのは逆方向やないか?
細部覚えさせるつもり無いのなら
lossが増えるだけやで

後sdscriptsのnetworksに入っとる
resize_lora.pyは試したか?
無駄に容量がデカいloraをdimの低い小さいloraに
再現変換するスクリプトなんやけど
品質落ちるんは落ちるんやけどとりあえず縮むで

836: 名無しのメタバースさん 2023/03/09(木) 19:38:08.21 ID:c2csJ05y0

>>819

なるほどそういうのもあるんやなありがとう
最終的な完成品は(小さいに越したことないが)
まあデカくてもええんやけどepoch毎に吐くのが
デカすぎるのがキツいってほうがどっちかっていうと
大きいから完成後の変換は敢えてはやらないかな

834: 名無しのメタバースさん 2023/03/09(木) 19:36:24.93 ID:MSNuym0H0

>>790

前から言ってるがモデルが512やから1024で
学習してクオリティ上がった!ってのは錯覚

838: 名無しのメタバースさん 2023/03/09(木) 19:40:12.59 ID:c2csJ05y0

>>834

ワイもどっちかっていうと
そっちの宗派やから確認の為にやってる感じやな
なんか顔とか1024の方が目小さくて
むしろかわいくなくなってる気がするし

793: 名無しのメタバースさん 2023/03/09(木) 18:31:10.14 ID:bOI8lqmm0

anythingとか7thとかaomにgape60の
gape要素だけを層別マージで入れたいんだけど
こういうモデルの特徴?って層のどこに
入ってるとか分かる人いる?
塗りは元のモデルのままにしてほしいんだけど

823: 名無しのメタバースさん 2023/03/09(木) 19:16:28.84 ID:bNreNjdE0

>>793

自分も今勉強中だけど
まずwikiの層別マージの項見た方がいいよ
特に既存のモデルと灰色の無意味な画像しか
出さないモデルを使って各層の出力変えて
マージした時の比較とか相当濃い情報が詰まってると思う

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678113228/
https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678282967/
_________________________________________________________________________________