691: 名無しのメタバースさん 2023/03/08(水) 02:58:10.69 ID:2EXa8q350
目を大きくするLoraが需要ありそうなんで上げとくよ
https://huggingface.co/2vXpSwA7/
iroiro-lora/blob/main/test/test-bigeye.safetensors
いろんなモデルで試したけど、大体問題なく使えるよ
https://i.imgur.com/zaRoIAy.png
ちなみにどうやってコレ作ったかってーと
適当な素材1枚でコピー機作る→
素材を編集して目を拡大して、
それ1枚使ってコピー機ベースで学習→
「目の大きさ」だけ学習出来る
学習が、モデルの持つ特徴と
素材画像との差分を学習するっていうなら
ベースを限りなく素材に近づけて、
必要な所だけ学習してやりゃいいじゃないって発想よ
761: 名無しのメタバースさん 2023/03/08(水) 10:05:49.96 ID:96nPoB+b0
>>691
ベースにするコピー機モデルはどうやって作ったらええんや?
同じ構図しか出ない過学習LoraをSDモデルにマージでOK?
884: 名無しのメタバースさん 2023/03/08(水) 15:34:35.40 ID:EtmjTNhTa
>>691
コピー機loraの学習パラメータ知りたいから
コピー機の方もアップしてクレメンス
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
697: 名無しのメタバースさん 2023/03/08(水) 03:28:55.85 ID:Ts/IOegy0
画期的な手法だと思ったけど
頭が悪すぎて理解できなかったわ
1枚の画像でコピー機モデル作成
↓
画像の加工化して目をデカくする
↓
加工した画像をコピー機モデルを学習元にLora作成
ってこと?
724: 名無しのメタバースさん 2023/03/08(水) 07:30:28.32 ID:q/mwUGyL0
コピー機って普通にそれ専用の
モデル作ることじゃないんか?
729: 名無しのメタバースさん 2023/03/08(水) 07:52:33.19 ID:tJNDSs90r
>>724
コピー機:一見綺麗に出力されているように見えても、
実際は学習素材の構図そのまま出力してるだけで、
応用が全く効かないもの
っていう認識だわ
721: 名無しのメタバースさん 2023/03/08(水) 07:00:14.99 ID:C37WMLRt0
コピー機の編集ってクリスタとか
使っていじるってことなんやろか
744: 名無しのメタバースさん 2023/03/08(水) 08:45:50.58 ID:2EXa8q350
あー、コピー機ってのはアレよ
プロンプト入れずに生成したら、
ほぼ元絵まんまの出力になるまで学習して
それを学習元のモデルにマージしたやつのこと
出来たモデルをベースに、元絵の目を
クリスタのゆがみブラシで
大きくしてやった絵で学習したのよ、それだけ
911: 名無しのメタバースさん 2023/03/08(水) 16:37:17.34 ID:EtmjTNhTa
というか>>744で説明してくれてたんやなサンガツ
754: 名無しのメタバースさん 2023/03/08(水) 09:51:44.28 ID:EZd9TAwTM
目玉コピー機法は
インペイントスケッチの汎用化って感じかな
概念を学習させられたらスゴイ
763: 名無しのメタバースさん 2023/03/08(水) 10:14:01.05 ID:v1sEPHOVa
わかりにくい用語作るのやめてくれや
766: 名無しのメタバースさん 2023/03/08(水) 10:17:16.08 ID:EZd9TAwTM
コピー機モデルってlr爆上げすればええんか?
ガビガビにならず意図して
元絵出そうとすると難しいな
768: 名無しのメタバースさん 2023/03/08(水) 10:23:49.29 ID:EZd9TAwTM
昔dbで作ったコピー機山ほどあるけど
よく考えたら差分絵を描く画力が無かった
とりあえずcnで頑張ってみるか
769: 名無しのメタバースさん 2023/03/08(水) 10:26:37.40 ID:w1wTNJYHH
コピー機Loraって要は超過学習Loraのこと?
807: 名無しのメタバースさん 2023/03/08(水) 12:13:52.01 ID:Ts/IOegy0
caption_dropout_rateイマイチ
どうメリットがあるのか理解できてないわ
0.01ならタグの中からランダムに1%外して
学習するって認識やけど、
それで強い学習になるんか…?
865: 名無しのメタバースさん 2023/03/08(水) 15:01:14.92 ID:Kz92joEHd
層別loraマジで無限に時間食うな
比較使ってloraごとに調整いる分
精度上がりまくるンゴ
742: 名無しのメタバースさん 2023/03/09(木) 17:35:48.85 ID:3uwJqUbe0
ろーらやらろこんやらろこりすやら
そろそろ赤ちゃんワイは
名前すら覚えられんようになるで
748: 名無しのメタバースさん 2023/03/09(木) 17:40:27.95 ID:ikK3jEbI0
locon入れたものの一度も使わんかったけど
そのままpip install リコリスリコイルしてええんか?
751: 名無しのメタバースさん 2023/03/09(木) 17:45:07.00 ID:aj5vRQ3Td
一回もロコン使わないままリコリス来てしまった
753: 名無しのメタバースさん 2023/03/09(木) 17:46:14.73 ID:icf/Yk5s0
正則化画像の有無も宗派や
ワイはいまはLionも試しとるが
もうこれも宗派やな?
762: 名無しのメタバースさん 2023/03/09(木) 17:56:58.49 ID:1ZoLtQCw0
>>753
正則化はほぼ誰も使ってないけど
なぜか信者おる宗教
lionはここだとまともに検証されたことないね
769: 名無しのメタバースさん 2023/03/09(木) 18:01:43.87 ID:icf/Yk5s0
>>762
ワイはLatentCoupleでの
多数適用とかやるから現状つかっとるよ正則化
Lionは何本か試した限りAdafactorよりは
好みな気はするけどもうちょい回さんとわからんな……
早めに精度出てくれる感じはあるがそれも善しあしやしなあ
756: 名無しのメタバースさん 2023/03/09(木) 17:49:17.38 ID:icf/Yk5s0
なーーーんも考えたくない、
再現率も低くてええ、とにかく動くか確認したい、
ちゅーならDAdaptionでLRは
のきなみ1ぶっこんどくという手もあるで
766: 名無しのメタバースさん 2023/03/09(木) 17:59:20.02 ID:at9In22/a
>>756
学習自体は動いてるんや
ファイルは出来るし
761: 名無しのメタバースさん 2023/03/09(木) 17:55:50.61 ID:Zm8lmVdp0
レシピ通りに作らない・味見をしない・ちょい足しアレンジが好き
これはメシマズスレのテンプレやで
763: 名無しのメタバースさん 2023/03/09(木) 17:57:17.23 ID:9PZM8RLK0
Adafactorやるのあの背景が
黄土色っぽい解説サイトのせいやろ
765: 名無しのメタバースさん 2023/03/09(木) 17:58:27.54 ID:1fSt7viT0
半日見てないと浦島太郎になるコンテンツ
768: 名無しのメタバースさん 2023/03/09(木) 18:00:26.20 ID:peYyar4D0
まぁテンプレのwikiの解説にも
AdaFactorのが貼ってあるしな
770: 名無しのメタバースさん 2023/03/09(木) 18:02:32.47 ID:spDQvG8aa
ついこないだ赤ちゃん用のgui作ってくれたのあるから
あれ使っとけば特に問題おこらないと思うんだけどな
775: 名無しのメタバースさん 2023/03/09(木) 18:06:08.16 ID:zZkX2nCX0
もっと正確に言うと要らないんじゃなくて
学習の効果が出るのが遅くなるから
とりあえず動いてる確認をするのが
目的の場合邪魔になるんや
総step数とか計算してやれるようになってから
試す分にはあってもええで
779: 名無しのメタバースさん 2023/03/09(木) 18:14:09.27 ID:9PZM8RLK0
Kohya_LoRA_GUIニキ、リコリス対応待ってるわ
790: 名無しのメタバースさん 2023/03/09(木) 18:27:38.48 ID:c2csJ05y0
LoRA dim128 512で作った過去のものを
色々なlocon 色々なdim 1024で何度もやり直してるけど
総合的な完成度でいまいち超えられないでいる
801: 名無しのメタバースさん 2023/03/09(木) 18:41:40.97 ID:Vcp7HbtOa
>>790
何を改善したいんや?
アクセサリーや髪型を後もう少し再現度上げたい
とかならそこら辺いじればええんやろけど
根本的に底上げかけたいなら学習画像と
キャプションいじるのが一番やろ
813: 名無しのメタバースさん 2023/03/09(木) 18:58:08.80 ID:c2csJ05y0
>>801
改善したいのは容量やな
dim128はさすがにデカいのでloconの32とかで
代替出来る設定固めたいんやけどなかなか上手く行かん
819: 名無しのメタバースさん 2023/03/09(木) 19:07:20.73 ID:YrAdUMuGa
>>813
容量か
だとすると1024で
やるのは逆方向やないか?
細部覚えさせるつもり無いのなら
lossが増えるだけやで
後sdscriptsのnetworksに入っとる
resize_lora.pyは試したか?
無駄に容量がデカいloraをdimの低い小さいloraに
再現変換するスクリプトなんやけど
品質落ちるんは落ちるんやけどとりあえず縮むで
836: 名無しのメタバースさん 2023/03/09(木) 19:38:08.21 ID:c2csJ05y0
>>819
なるほどそういうのもあるんやなありがとう
最終的な完成品は(小さいに越したことないが)
まあデカくてもええんやけどepoch毎に吐くのが
デカすぎるのがキツいってほうがどっちかっていうと
大きいから完成後の変換は敢えてはやらないかな
834: 名無しのメタバースさん 2023/03/09(木) 19:36:24.93 ID:MSNuym0H0
>>790
前から言ってるがモデルが512やから1024で
学習してクオリティ上がった!ってのは錯覚
838: 名無しのメタバースさん 2023/03/09(木) 19:40:12.59 ID:c2csJ05y0
>>834
ワイもどっちかっていうと
そっちの宗派やから確認の為にやってる感じやな
なんか顔とか1024の方が目小さくて
むしろかわいくなくなってる気がするし
793: 名無しのメタバースさん 2023/03/09(木) 18:31:10.14 ID:bOI8lqmm0
anythingとか7thとかaomにgape60の
gape要素だけを層別マージで入れたいんだけど
こういうモデルの特徴?って層のどこに
入ってるとか分かる人いる?
塗りは元のモデルのままにしてほしいんだけど
823: 名無しのメタバースさん 2023/03/09(木) 19:16:28.84 ID:bNreNjdE0
>>793
自分も今勉強中だけど
まずwikiの層別マージの項見た方がいいよ
特に既存のモデルと灰色の無意味な画像しか
出さないモデルを使って各層の出力変えて
マージした時の比較とか相当濃い情報が詰まってると思う
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678113228/
https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678282967/
_________________________________________________________________________________
コメントする