172: 名無しのメタバースさん 2023/03/10(金) 02:31:51.54 ID:4bUZmzDA0
LLuLただの細部拡縮じゃねえや切り取りと
batch化の都合もあって層別 IN MID OUTと各層内の
Resblock: ノイズ畳み込みの時刻条件づけ
https://i.imgur.com/KBy00Eo.jpg
Transformer: テキストpromptベクトル化
https://i.imgur.com/0JIuNmd.jpg
Self Attention:データの流れ方を学習
https://i.imgur.com/3D9nIgS.jpg
Cross Attntion: テキストのキーと
バリューを組み込んだ上でのデータの流れ方を学習
https://i.imgur.com/x4Dp5gA.jpg
OUT: 出力結果に直接結合
https://i.imgur.com/frF3vHd.jpg
に個別干渉できよるからある場所のポーズだけに
badprompt2度がけとかしてる状態にできる可能性
173: 名無しのメタバースさん 2023/03/10(金) 02:32:32.32 ID:4bUZmzDA0
>>172
設定
https://i.imgur.com/s3Zqz5f.png
対照用LuLLoff
https://i.imgur.com/Jv98AB1.jpg
用語解説
https://i.imgur.com/jbQdP40.png
https://i.imgur.com/jvVoDm2.png
https://i.imgur.com/h9Nqldu.png
>セグメンテーションマップの埋め込みベクトルを
キーおよびバリューとすれば、
そのセグメンテーションマップを条件とした
画像生成ができます。これによって画像-画像変換
(Image-to-Image Translation)なども可能になる
https://qiita.com/omiita/items/ecf8d60466c50ae8295b
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
178: 名無しのメタバースさん 2023/03/10(金) 02:54:38.06 ID:4bUZmzDA0
>>172-173
使い方:一回画像出してから
そのままseedとprompt固定でLLuLをEnableして
もう一回画像シュツするとと
直前の画像のボックス部分に描き込みや
1. Generate an image as you like without
LLuL (make Enabled checkbox be unchecked).
2. Put gray box where you are interested in.
3. Generate an image again with same prompt,
same seed and LLuL (make Enabled checkbox be checked).
Or,
XYZplot使う方法
1. Select X/Y/Z plot in Script dropdown.
2.Set X type to LLuL Enabled and X values to
false, true (click yellow book for automatic input).
3. Input prompt and generate image with Batch size = 1.
https://i.imgur.com/uMa4syi.png
https://github.com/hnmr293/sd-webui-llul/issues/5
使い方:一回画像出してから
そのままseedとprompt固定でLLuLをEnableして
もう一回画像シュツするとと
直前の画像のボックス部分に描き込みや
1. Generate an image as you like without
LLuL (make Enabled checkbox be unchecked).
2. Put gray box where you are interested in.
3. Generate an image again with same prompt,
same seed and LLuL (make Enabled checkbox be checked).
Or,
XYZplot使う方法
1. Select X/Y/Z plot in Script dropdown.
2.Set X type to LLuL Enabled and X values to
false, true (click yellow book for automatic input).
3. Input prompt and generate image with Batch size = 1.
https://i.imgur.com/uMa4syi.png
https://github.com/hnmr293/sd-webui-llul/issues/5
181: 名無しのメタバースさん 2023/03/10(金) 03:03:28.86 ID:4bUZmzDA0
>>178
❌もう一回画像シュツするとと
🙆もう一回画像出力すると
今は画像改変を連続で行うには
img2imgに行ってLLuLするしかないし
四角い描き込み場所のアタリを取るのが
グレーのキャンパス内スライドじゃ
雰囲気でしかとれないけどこれ改善したら
層別hires.fixみたいなもんになるっちゅうわけやな
190: 名無しのメタバースさん 2023/03/10(金) 04:27:26.28 ID:4bUZmzDA0
>>178
LLuL適用前
https://i.imgur.com/xkYzmYr.jpg
↓
LLuLの描き変え対象領域狭めて顔面指定すると…
(強度強くして範囲わかりやすいようにしてあります)
https://i.imgur.com/X6fdE91.jpg
↓
その人物もしくはseg的な種別を認識して
全身ディテールアップしよる
https://i.imgur.com/BLpbMTK.jpg
なんかグレーの四角外も
改変することがあると思ったらこれか
これprompt上の区別を認識しとるな
191: 名無しのメタバースさん 2023/03/10(金) 04:29:22.18 ID:/y40k2Gs0
>>190
ワイは狭めたり広げたりの操作の仕方がわからないのと
黒視覚に元絵重ねたり出来なくて勘で置くしかないのが
ダルくてそれ投げ出したんやけど
少なくとも範囲変える方法はあるんやな
196: 名無しのメタバースさん 2023/03/10(金) 04:55:23.02 ID:4bUZmzDA0
>>191
LLuLの一番上のスライダーやね
https://i.imgur.com/dqfE9bn.png
206: 名無しのメタバースさん 2023/03/10(金) 05:43:35.51 ID:4bUZmzDA0
これ>>190の差の絶対値をとってみた
黒いところは変化なしや
けどほとんど木立ちは
変わってないようや特に右の大面積真っ黒
https://i.imgur.com/4WW5Lyt.png
目の周り描き変え指定しただけで
人体はきっちりディテールアップしとるのに
198: 名無しのメタバースさん 2023/03/10(金) 05:12:17.49 ID:4bUZmzDA0
>>178
あとこれseed決め打ちすれば
最初に一回出す必要ないわ
単に改変場所のアタリのために出しておくだけで
直前の画像やU-netやらは一切使ってない
180: 名無しのメタバースさん 2023/03/10(金) 03:01:12.22 ID:stRDgq/70
LLuLは正直使い道思い付かんかったな
i2iでまともに機能しないから一番やりたいことやれんし、
t2iで使った場合でも範囲外まで影響出るから微妙過ぎる
183: 名無しのメタバースさん 2023/03/10(金) 03:18:25.95 ID:Yfzf8xCu0
LLuL使いこなすの難しくて2週間放置してたけど
層単位で適応できるのすごいやん
明日研究するわ
184: 名無しのメタバースさん 2023/03/10(金) 03:20:15.41 ID:Ih4Gn6vS0
LLuLぱっと見すごいのに
一瞬話題に上がったきり音沙汰なかったの
シンプルに使い方分からんかったんやな
仲間や
197: 名無しのメタバースさん 2023/03/10(金) 05:05:29.56 ID:BTfepdjs0
LLuLよく分かんないから
聞きに来たけど割りと試行錯誤の技術なのかな
有識者のかたなにとぞ解明してください
200: 名無しのメタバースさん 2023/03/10(金) 05:22:32.25 ID:KuZkXlGNa
背景とか範囲外も微妙に変わるし
ガチャガチャが増えただけなような
201: 名無しのメタバースさん 2023/03/10(金) 05:24:31.81 ID:nrGMoCHbM
つまりいっぱいガチャできるってことやな
210: 名無しのメタバースさん 2023/03/10(金) 06:05:36.69 ID:MecyLvzH0
ワイの偽御三家の進化形態や
対戦よろしくおねがいします😎
https://civitai.com/models/17342/fakemon-pokemon-lora-beta
https://i.imgur.com/XM3dz2W.png
https://i.imgur.com/wwPgFZ1.png
https://i.imgur.com/0MqPmu2.png
213: 名無しのメタバースさん 2023/03/10(金) 06:24:24.15 ID:ZLhyNn+X0
>>210
こういうの同じポケモン素材は
一回しか使わないかな?
他のゲームだけど似たようなことしてみたい
618: 名無しのメタバースさん 2023/03/22(水) 01:01:55.26 ID:86wJgdjX0
windows defender「.onnxと.ptと.ckptを片っ端から消したろ」
622: 名無しのメタバースさん 2023/03/22(水) 01:12:57.29 ID:bNH+o3xYM
multidiffusion面白いわ
普通のイラスト生成こんなにやるの
初めてでワイのAIちゃん喜んでる
https://imgur.com/jwv0J7R.png
628: 名無しのメタバースさん 2023/03/22(水) 01:34:13.16 ID:oc6ZjVFL0
>>622
素晴らしいな
623: 名無しのメタバースさん 2023/03/22(水) 01:20:46.32 ID:uSqaSp3R0
赤ちゃんですまん
落としてきたLoraファイルで顔だけ適用させる方法って
1か月前ぐらいに見た気がするんやがどうやるんやっけ
たしか0,0,0,1,1,1みたいな設定をするとか
やった気がするんやが
624: 名無しのメタバースさん 2023/03/22(水) 01:25:49.15 ID:q/B7sDa40
lora層別適用のやつ?
lora block weightとかだっけ
643: 名無しのメタバースさん 2023/03/22(水) 01:55:09.18 ID:uSqaSp3R0
>>624
ありとん有能
625: 名無しのメタバースさん 2023/03/22(水) 01:26:52.29 ID:kq+xoZE/M
簡単な事でもすぐ聞く赤ちゃん多すぎやろ
629: 名無しのメタバースさん 2023/03/22(水) 01:38:12.82 ID:t7r7wj2M0
http://imgur.com/rcHtQhw.jpg
メモリーリークしてたんかいWWWWWWWWWWWWWWWWWWWWWWWW
638: 名無しのメタバースさん 2023/03/22(水) 01:45:55.65 ID:o8pggLQy0
日本語化拡張
Seedの文字と数字が被ってるのワイだけ?
639: 名無しのメタバースさん 2023/03/22(水) 01:47:49.44 ID:Cipcxhg80
MultiDiffusionでも拡大したいサイズが違うだけで
基本的にやりたいことはhires.fixと同じなんだよねw
そして悩んでる部分も同じという
(人増やしたり勝手に物を書き換えられたり
腕を違うものにされたり)
660: 名無しのメタバースさん 2023/03/22(水) 02:27:00.79 ID:Swrca9lTM
outputフォルダから昔出したの発掘してきて
くそでかmultidiffusionするの楽しそうやん
明日やるか。明日から本気だす
666: 名無しのメタバースさん 2023/03/22(水) 03:00:21.35 ID:Cipcxhg80
multidiffusionガチャは流石に無理やから
誰か修正方法やほぼ成功する方法開発してくださいw
668: 名無しのメタバースさん 2023/03/22(水) 03:03:04.13 ID:1fHYvyaW0
風景目当てにしても
ちょっと使いどころ難しいなMultiDiffusion
いまのところ風景強いモデルで横長つくって
拡大した方がまだ打率も安定性もマシな気が...
大き目のキャラで描画の細かいreference_sheet作れないか
試してみてるが上手く行かん
672: 名無しのメタバースさん 2023/03/22(水) 03:16:48.83 ID:Cipcxhg80
loraは今正解がよく分かんないし
情報がまばらで素材やモデルの相性よっても
物が変わるみたいだし
677: 名無しのメタバースさん 2023/03/22(水) 03:19:38.13 ID:JWXJplTs0
naiベース学習→7th出力辺りが
一番打率良い感じな気がする
でも学習したいものの絵柄&自分の好みな絵柄にも
よると思うわ
というか何もかも最終的には本人の好みなんや
679: 名無しのメタバースさん 2023/03/22(水) 03:21:27.73 ID:Cipcxhg80
>>677
前あげたんだけど教師データが全部3Dだと
リアル系じゃないとすぐ過学習っぽくなるんだよね
量が多いのか、自分で作るよりもcivitaiで
拾った方ができがいいから、そっちで遊んでるw
680: 名無しのメタバースさん 2023/03/22(水) 03:23:14.78 ID:MhyWbZl70
WebUI生成サイズの指定に関する
Extensionてなんかないか?
いちいちスライダー動かすんめんどくさいねん…
681: 名無しのメタバースさん 2023/03/22(水) 03:25:00.95 ID:goKlE2N80
1024で学習すると細かい所も覚えて
明確にかわるから4090かクラウド一人勝ちやで
686: 名無しのメタバースさん 2023/03/22(水) 03:32:29.89 ID:Cipcxhg80
>>681
クラウド民増えて1024学習が
簡単にできるコード作ってw
682: 名無しのメタバースさん 2023/03/22(水) 03:25:13.98 ID:eaM035110
ワイはLoRA学習パラメータ弄りすぎて
弱体化してる人間だけど
バッチサイズは大事と言うことだけは信じてる
683: 名無しのメタバースさん 2023/03/22(水) 03:30:03.67 ID:HeWxeSVt0
1024で明確に変わるなら
768でも効果あると推測されるよな
ワイは少し比較して768がよかった
成功体験あるから768で学習回してるよ
512じゃないと生成時間が長すぎるということもないしな
1024は…そろそろ4090欲しいンだよねぇ
710: 名無しのメタバースさん 2023/03/22(水) 04:04:50.32 ID:qP6+lG5T0
>>683
その辺の効果がリニアにならない理由は
生成の時にhires無しの素出ししたとにに
768だとギリ人間出てくるけど
1024だと明確に化け物出てくるからやと思う
だから元絵との差を見る、という行為について
512も768も変化が見出しにくい
1024はhires無し1girlとか完全に化け物出てくるから
学習の性質が全く別物になるので出来上がったものも
人間目線で有意に変わるんじゃないか
692: 名無しのメタバースさん 2023/03/22(水) 03:39:56.01 ID:xE9PE4zT0
civitにlora作成ガイドが上がってるな
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678367246/
https://nozomi.2ch.sc/test/read.cgi/liveuranus/1679326948/
_________________________________________________________________________________
コメントする