207: 名無しのメタバースさん 2023/01/26(木) 13:16:37.73 ID:oMl9Um0T0
xformersはマジで鬼門やな
sd_scriptsのLoRA学習したら
何も変化しないLoRAしかできんくて
困惑したんやが犯人はxformersだったわ
issuesにも報告あってxformersのバージョンを
少し古い0.0.15.dev0+1b1fd8aにすると正常になった
バージョンは新しければええってわけでもないから厄介やな
211: 名無しのメタバースさん 2023/01/26(木) 13:30:44.95 ID:C9Xzv2IH0
>>207
入れないと生成速度が遅くなるから
無視するわけにもいかんのが辛いやね
236: 名無しのメタバースさん 2023/01/26(木) 14:59:35.11 ID:Ejhp1R/A0
としあきwikiの手順通りにlora学習させて
エラーもなく正常終了してるのに
できたファイルを適応しても
結果が何一つ変わらないのは何が良くないんやろか
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
425: 名無しのメタバースさん 2023/01/26(木) 20:59:00.69 ID:oMl9Um0T0
>>236
まったく同じ症状に悩まされたけど
xformersが原因かもしれんで
https://github.com/kohya-ss/sd-scripts/issues/85 に報告がある
ワイはsd-scripts側の
venvに入ってから↓実行して治した
pip install -v -U git+https://github.com/facebookresearch/xformers.git@1b1fd8a#egg=xformers
ただしxformersのビルドは🎈長いので注意
436: 名無しのメタバースさん 2023/01/26(木) 21:13:37.92 ID:jYzmK5MM0
>>425
venvに入って実行の下りを
もう少し丁寧に教えてもらえんか?
xformersに3敗しとるんや
442: 名無しのメタバースさん 2023/01/26(木) 21:28:41.99 ID:oMl9Um0T0
>>436
PowerShellもしくはコマンドプロンプトで
venvに入るまでは分かるやろか?
Windowsなら .\\venv\\Scripts\\activate で
Linuxなら source venv/bin/activate を実行して
(venv)が行頭に付与されてればOK
venvに入るといってもWebUIのほうじゃなくて
kohyaニキも説明してるsd-scripts導入の手順で
作ったほうのvenvなので注意
無事にvenvに入れたらpip installの行を
そのまま打ち込んで実行すれば
ビルド&インストールが始まる
xformers以前に別のところで躓いてる可能性もあるので
導入手順をよく読んで確認するのも大事やな
たとえばWindowsならPowerShellを使うか
コマンドプロンプト(cmd.exe)を使うかで
コマンドが微妙に違ったりするから
470: 名無しのメタバースさん 2023/01/26(木) 22:30:58.60 ID:jYzmK5MM0
>>442
サンガツ!
PowerShellをsd-scriptsフォルダ内で開いて
.\\venv\\Scripts\\activate、そのままpipで更新して、
出来たらそのままaccelerate launch --num_cpu_threads_per_process 12 lora_train_popup.pyであってるやろか?
うーん、これでやって上手くいかなかってんな頭に
venvは入ってたと思うねんけどもう一度やってダメなら
全部消して入れ直してみるわ!
487: 名無しのメタバースさん 2023/01/26(木) 22:52:49.67 ID:oMl9Um0T0
>>470
lora_train_popup.py というのは
LoRA_Easy_Training_Scriptsのやつかな
ワイはkohyaニキのtrain_network.pyで
愚直にオプション指定して実行してるけど
流れ自体はそれで合ってるんちゃうかな
あとは事前にaccelerate configしとくことと
学習時にvenvに入っているかの確認くらいか
xformersを疑う場合は--xformersオプションなしで
学習してみて正常なLoRAができるか確認してみるのが早い
それで生成できるならxformersに原因があるし、
それと関係なくコケるなら他に原因がある
495: 名無しのメタバースさん 2023/01/26(木) 23:02:30.80 ID:jYzmK5MM0
>>487
Easyの方も理解しとらんし
基本の方を勉強するわ
サンガツ!
458: 名無しのメタバースさん 2023/01/26(木) 22:14:50.62 ID:Ejhp1R/A0
>>425
サンガツ
試してみるわ
468: 名無しのメタバースさん 2023/01/26(木) 22:28:29.95 ID:oMl9Um0T0
>>458
もしそのバージョンでも駄目だったら
torchとtorchvisionも上げるといいかも
ちなみに torch 1.13.1+cu117 と
torchvision 0.14.1+cu117 の組み合わせで動作できてる
あと後出しですまんがpip installの前に
pip install ninja でninja入れとくと
ビルド時間の短縮になるで
268: 名無しのメタバースさん 2023/01/26(木) 16:39:10.59 ID:+JEeMCuH0
pixelizationの1はA100でも
ダメだから実質無いようなもんや
2以上(数字がデカいとVRAM消費が減って
ドット幅がデカくなっていく)にして生成するんや
271: 名無しのメタバースさん 2023/01/26(木) 16:43:56.14 ID:K0Ms1i/V0
>>268
サンガツ
270: 名無しのメタバースさん 2023/01/26(木) 16:40:57.02 ID:SwuKa0or0
久しぶりにDBやったけど
xformers使うとあかんのかな
flash_attentionにしたら学習できたけど
半日無駄になったわ
272: 名無しのメタバースさん 2023/01/26(木) 16:48:18.33 ID:bBINBwQH0
LORAでちゃんと着替えられる学習のさせ方は
誰もまだわかってない感じか?
274: 名無しのメタバースさん 2023/01/26(木) 16:54:09.32 ID:vqS8FLJHa
衣服LORA使った着せ替えだけなら
4chanが確立させとるよ
407: 名無しのメタバースさん 2023/01/26(木) 20:37:53.82 ID:NyGx68Ot0
>>274
まとめられてるのかな?
知りたいけど探すの大変w英語分からない
301: 名無しのメタバースさん 2023/01/26(木) 17:45:35.42 ID:GH6Yek6Wd
inpaint活用出来るとより世界が広がるけど
inpaintに技量を求められるのね
絵書いたことないと普通に難しい
325: 名無しのメタバースさん 2023/01/26(木) 18:54:58.26 ID:ExZP94wT0
正則化無しマルゼンメソッドの良くない部分が
端的に示されてる気がする
「hagikaze seifuku」を企図したタグ付けで
学習させた上でそれのみのプロンプトで
呼び出したけど明らかに「hagikaze yukata」の髪型と
「nowaki」の髪型が勝手に混ざってる
https://majinai.art/i/f72H5yR.webp
複数キャラをやらない、
衣装によって髪型が大きく変わったりしない、
とかならマルゼンでも良いのかなとは思う
326: 名無しのメタバースさん 2023/01/26(木) 18:55:02.90 ID:A6KpNwhT0
lora学習では画像のサイズ揃えんでもいいみたいやが、
ホンマか?明らかに1:1比率で切り出した奴で
学習させた方が出来がよかったんやが・・・。
144: 名無しのメタバースさん 2023/01/26(木) 09:41:23.11 ID:m0aMQkGh0
1111でもpix2pix使えるようになったやん
https://github.com/Klace/stable-diffusion-webui-instruct-pix2pix
145: 名無しのメタバースさん 2023/01/26(木) 09:43:16.70 ID:BRl8aOmd0
>>144
NMKD使う理由の残り1割なくなってしもうたか
171: 名無しのメタバースさん 2023/01/26(木) 11:38:42.00 ID:yC07PdeHa
>>144
NMKDの理由なくなってしまった
153: 名無しのメタバースさん 2023/01/26(木) 10:19:06.62 ID:m0aMQkGh0
案外便利かもだなあ、pix2pix
make her hair blonde
https://i.imgur.com/zl1asKB.jpg
服の色までひっぱられるから、
色移り問題はあるようだけど
170: 名無しのメタバースさん 2023/01/26(木) 11:34:22.43 ID:Fd6zHSx3r
LORAのキャプションって
覚えさせたいタグを残すのか
逆だと思ってsimple backgroundとかを毎回残してた
174: 名無しのメタバースさん 2023/01/26(木) 11:45:01.63 ID:rdLb5J8H0
>>170
お前の期待通りがっつりシンプルな背景しか
でなくなるぜ!
183: 名無しのメタバースさん 2023/01/26(木) 12:19:57.32 ID:5iq3pSVK0
>>170
としあきwiki見てる感じだと、
そのまま覚えさせたい部分のキャプションは除いて、
設定したインスタンスプロンプトで一括で
呼び出せるようにするみたいな認識だったけど違うんか
173: 名無しのメタバースさん 2023/01/26(木) 11:44:44.95 ID:abSMivxF0
pix2pixってなんやの?
180: 名無しのメタバースさん 2023/01/26(木) 12:05:32.29 ID:Pa0tBDuV0
としあきのLORAのページにあったやり方で
覚えさせたいタグを消して1つの単語に
特徴を集約させるTI的なやつやってみたけど
自分ではうまく出来なかったな...
ただ全部にwhite background付いてるけど
背景にそんなに影響してる感じもしない
181: 名無しのメタバースさん 2023/01/26(木) 12:08:15.78 ID:IfzUtznU0
pix2pix自体を初めて知ったけど、
精度次第では便利そうだね。
192: 名無しのメタバースさん 2023/01/26(木) 12:50:25.94 ID:3S0P1u8A0
🖼←これは1girl solo white background big breast long
hair blue eyes hand on own hip animal ears dress cleavgeです
絵柄学習はこれ
🖼←これは1girl orenoyome simple backgroundです
キャラ学習はこれ
203: 名無しのメタバースさん 2023/01/26(木) 13:10:35.69 ID:6aY1+QSf0
>>192
これでlora作った後、orenoyomeってプロンプトが
キャラ再現用のプロンプトになるってことやんな?
使う時はlora適用させつつorenoyomeを
プロンプトに書くってやり方でええか?
354: 名無しのメタバースさん 2023/01/26(木) 19:26:08.45 ID:v4pWf0kd0
>>192
これって単語間にカンマ入れん方がええんか?
なんもわからん…
205: 名無しのメタバースさん 2023/01/26(木) 13:12:24.89 ID:z1PBKeZd0
Loraはなんで512512に
切り抜きしなくてよくなったんや…すごE
333: 名無しのメタバースさん 2023/01/26(木) 19:03:04.36 ID:8p9cEP09M
>>205
bucketやるとなんか勝手に512x512=2621144画素に
収まる範囲内で縦横比に応じて各々を
リサイズしてくれてる的な挙動してるように見える
200: 名無しのメタバースさん 2023/01/26(木) 13:06:45.60 ID:K5E/Envg0
pix2pixってぐちゃぐちゃの手を直すとか行けるんかな
335: 名無しのメタバースさん 2023/01/26(木) 19:07:23.35 ID:z+Mx2q000
直近5スレ位眺めてたらいつの間にかLoraを理解していた、
本当にありがとうございます手軽で最高です!
https://i.imgur.com/zNvRbUz.jpg
370: 名無しのメタバースさん 2023/01/26(木) 19:57:42.02 ID:c/EAobs90
lora導入しようとして
としあきwiki参考にしてるんやが、
. venvの行から失敗してしまう
何が足りないんや?
373: 名無しのメタバースさん 2023/01/26(木) 19:59:21.35 ID:Sk8sxAiWH
loraのepochって皆10とか回してんのか
1でも結構強烈に効くからずっと1でやってたわ
380: 名無しのメタバースさん 2023/01/26(木) 20:10:59.35 ID:NauZd43M0
>>373
学習率と画像枚数と繰り返し回数バラバラだから
何とも言えんぞ
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1674660572/
_________________________________________________________________________________
コメントする