289: 名無しのメタバースさん 2024/01/30(火) 15:14:01.52 ID:XACT5E5K0

3060 12GBでXL LoRAを1つ作るのに4時間
(Traintrain使用、animagineXL3.0、768px、
iterations1000、batch2、dim16、alpha8、素材20枚で約15s/it)
効きが悪い(LoRAを強調してもたまにしか出てこない、
特徴をLoRAとは別にプロンプトに書く必要がある)
ってことはもっと学習させないといけないんだよね?
iterationsを1500にしたら6時間か
時間かかるなあ

293: 名無しのメタバースさん 2024/01/30(火) 15:28:47.74 ID:wVVspDXbd

>>289

ちょうどワイがさっき作ったのが
3060、dim16/8、768、バッチ2、素材21枚まで同じ設定
DAdaption、10epochで総step1300
(batch1相当2600)で1時間ちょい

オプティマイザや学習率がどう違うかやね

296: 名無しのメタバースさん 2024/01/30(火) 15:35:18.36 ID:VkWDX3uLM

>>289

animagineはtrigger freeで
LORAを利かせること自体が
難しいと思った方がいいで

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku



298: 名無しのメタバースさん 2024/01/30(火) 15:37:11.47 ID:wVVspDXbd

>>289

15s/itがかかりすぎやね
ワイ2.75sやったで
メモリ溢れてるんちゃう?

あーそうだワイはfp8だからそれかも

299: 名無しのメタバースさん 2024/01/30(火) 15:40:50.60 ID:jMqqr/LI0

>>289

Learning rateを増やすか時間を増やすかのどちらか
この記事の前半部分を理解すると学習時間とLRと
バッチサイズやエポックについて理解できてつよつよになれるよ
https://note.com/gcem156/n/n1eb78d02b3f0

自分も以前に読んでこの記事には感謝しかない

あとnetwork_weights使えば作ったloraの続きから
学習続けられるよ

321: 名無しのメタバースさん 2024/01/30(火) 17:00:01.75 ID:jMqqr/LI0

>>308

LRは一歩当たりの歩幅ね
学習が足りない=目的地に着かなかったなので、
歩幅を大きくするか時間を増やすかのどっちかになる

306: 名無しのメタバースさん 2024/01/30(火) 16:08:04.31 ID:XACT5E5K0

>>289
のつづき
みんなコメントサンガツな、
もっと早く学習できることがわかったワ
>>289ではlearning rateは1e-4、train optimizerはadamw
gradient checkpointingがオフだったので次はオンにしてみる
trigger wordは空欄だったからこれも入れてみよう
そのほかの設定も調整してみるで

616: 名無しのメタバースさん 2024/01/31(水) 09:32:36.44 ID:tTcE0tmZ0

>>464

おおーわざわざサンガツや~
そのパラメータで15s/itが2s/itまで下がったで
batchを3に上げても3s/itで25分くらい。
4時間かかっていたのが嘘のようや
ここからLoRAの仕上がりをよくする
試行錯誤をしてみるで
改めてサンガツ!

291: 名無しのメタバースさん 2024/01/30(火) 15:19:52.58 ID:XzhvOCmq0

AI君に的確な指示を出して
的確な絵を出せるニキたちなら
人間にも的確な指示がだせるようになっとるはずや

311: 名無しのメタバースさん 2024/01/30(火) 16:37:16.41 ID:R9pX4j5Wd

>>291

(仕事で安全:1.5)、客先へのメール連絡、
美しい詳細、傑作、最高品質

295: 名無しのメタバースさん 2024/01/30(火) 15:35:08.47 ID:FFE0DHfe0

もしかして学習時の
--scale_weight_normsオプションって玄人向けか
これ付け始めてからあんまりいいのが
できてない気がする

309: 名無しのメタバースさん 2024/01/30(火) 16:35:34.68 ID:6pe0f95G0

>>295

それ、過激な学習結果にならんようLoRAの
ベースモデルへの影響力制限するっていうオプションやで
一見ちゃんとしたLoRAができたように見えて
別のLoRAと多重適用すると衝突崩壊したりするのを防止するんや
逆に言えばいじり方が強制的にマイルドになるから
いつまで経っても覚えが悪いという結果に直結するから
テキトーにいじるもんやない

312: 名無しのメタバースさん 2024/01/30(火) 16:39:43.47 ID:FFE0DHfe0

>>309

複数lora併用するから外人ニキが
githubに書いてるように
色々調整してみたが微妙やったわ
絵柄とかならいいのかもな

316: 名無しのメタバースさん 2024/01/30(火) 16:49:12.45 ID:6pe0f95G0

>>312

モデルに一切無い要素を
覚えさせる時とかとは相性悪いと思うで
そういう時はどっかの領域を強制上書きするような形で
追加される訳やからある程度の強度が無いと覚えようがない
後は強さではなく広さでどうにかするように
dimを上げるって手があるぐらいか

297: 名無しのメタバースさん 2024/01/30(火) 15:36:12.28 ID:9sDHEZHM0

comfyでNAIちゃん便利なんだけど
BANされないかヒヤヒヤする

https://files.catbox.moe/gjmxg4.jpg

442: 名無しのメタバースさん 2024/01/30(火) 21:21:37.11 ID:qDdggBk10

>>297

はえー

263: 名無しのメタバースさん 2024/01/30(火) 13:54:49.32 ID:s20LswNj0

https://novelai.net/inspect

これ使えば品質タグやらの隠れたプロンプトも
全部出るから別のタブで開いておくと便利かも
XLへの移植とか

287: 名無しのメタバースさん 2024/01/30(火) 15:05:06.44 ID:yL9PFBD00

>>263

公式なん?
なぜデフォ機能で実装してないのか…

535: 名無しのメタバースさん 2024/01/31(水) 00:58:35.03 ID:O/xrymIC0

>>287

亀レスだが、最近追加された公式機能やね
ワイもあんま使ってないけど

266: 名無しのメタバースさん 2024/01/30(火) 14:03:08.34 ID:MFhT0UMg0

一年前nai使ってた時は「ノイズの海の中から
プロンプトをヒントに見つけ出してる」みたいな仕組みだと理解してた。
それじゃあ原理的に手の込んだ絵は無理ゲーレベルなのでは🤔
と思ってたら、たった一年のnai3で無理ゲーレベルから、
ちょっと難しいけどわりと可能かも?ってレベルになったもんな
何故にわりと可能ってレベルになったのか、俺の頭では
さっぱり理解できてないけど

277: 名無しのメタバースさん 2024/01/30(火) 14:29:33.88 ID:+E4BZb1d0

これで好きな物を生成出来たら最高だろうなぁ
https://news.yahoo.co.jp/pickup/6489960
https://i.imgur.com/l1xJAOn.jpeg

329: 名無しのメタバースさん 2024/01/30(火) 17:52:08.77 ID:0dYb44Eod

ワイもこの土日に初めて3060 12GBで
LoRA作ってみた赤ちゃんやけどtraintrainで
適当にやったら素材4枚で9時間ぐらい
かかった上に出来は微妙やったわ
sd-scriptの環境作ってRedRayzニキの
Kohya_lora_param_guiのサンプルプリセットの
SDXL_character_12gb.xmloraをほぼそのまま使ったら
20分かからず学習終わって最初にtraintrainで
作ったやつより良かったわ
やっぱり赤ちゃんが適当にやってもあかんわね
RedRayzニキに感謝や

347: 名無しのメタバースさん 2024/01/30(火) 18:26:16.47 ID:3S7bNaqc0

https://i.imgur.com/s8ipM0w.png

349: 名無しのメタバースさん 2024/01/30(火) 18:32:58.58 ID:nwaVvudw0

>>347

めっちゃ仕事できそうで草

356: 名無しのメタバースさん 2024/01/30(火) 18:58:38.90 ID:Qi5U+8Cy0

>>347

オレが責任を取る
アイツのせいじゃない

412: 名無しのメタバースさん 2024/01/30(火) 20:31:32.72 ID:dI1o/+Qa0

SDXL環境のLoraってalphaとdimは
SD1.5の時と同じくらいの値で大丈夫か?
3060の12GBだけどここ見てると
上手く学習できるか心配や

413: 名無しのメタバースさん 2024/01/30(火) 20:34:59.58 ID:1Dyr45sU0

>>412

ワイはXLのLoRAは3e-5、
dim32のa16くらいで今はやっとるで
素材数とか他の設定でも
変わってくるとは思うが参考までに

447: 名無しのメタバースさん 2024/01/30(火) 21:29:32.10 ID:dI1o/+Qa0

>>413

両方の数値とも前作ってたやつの半分未満や
1回その値で回して様子見するわ

431: 名無しのメタバースさん 2024/01/30(火) 21:01:05.63 ID:bsf7sSQ/0

SDXLのマージって今でもRAM32Gbが最低限扱いなん?😱
学習を1.5からSDXLに感動しとるから
マージもしたいんやけどRAM24Gbじゃ厳しいんやろか

439: 名無しのメタバースさん 2024/01/30(火) 21:15:42.86 ID:0y12objQ0

今更animagineでLoRA作り始めたけど、
マジで凄いなコレ。
ぷよぷよ~ん版のアルル好きでまともに使える
公式素材が5~6枚しか無かったんだけど、
1000~1500stepで回しただけで、
この再現度はエグいわ…。(dim1 alpha0.5)
https://i.imgur.com/dZrVpN1.jpg

469: 名無しのメタバースさん 2024/01/30(火) 22:14:56.29 ID:DPbE0QRE0

sd-scriptsのnetwork_multiplerテスト
題材はlo-fi↔hi-fi(わかり難くてスマソ
モデルは馬ちゃん loraベースは魔神ちゃん
コピー機 dim=4
https://files.catbox.moe/2w4q7a.png

network_multipler dim=8
https://files.catbox.moe/qm3sey.png

一回でコピー機loraができるのは便利やと思った
ただnetwork_multiplier = 1.0で作った
コピー機loraを ベースにしたモデルで適用すると
model_str:1で元画像が出ちゃうから調整必須やわ

470: 名無しのメタバースさん 2024/01/30(火) 22:16:34.10 ID:DPbE0QRE0

>>469

×network_multipler
○network_multiplier

491: 名無しのメタバースさん 2024/01/30(火) 23:13:05.59 ID:9sDHEZHM0

SDXLに移り変わったおかげで
SD1.5のデータは全部HDDに
投げ込んでアーカイブ状態やな
14TBぐらいあるけどこのまま眠りそう

492: 名無しのメタバースさん 2024/01/30(火) 23:13:05.86 ID:csa08zETH

はぁはぁ・・・SDXL RTX4090で
バッチ16 fullのfine tuneで
1万枚30エポッち22時間・・・寝るぞ!

497: 名無しのメタバースさん 2024/01/30(火) 23:15:13.24 ID:pxXjQkPP0

1.5で数年は遊べるやろと思ってた時期が
ワイにもありました

539: 名無しのメタバースさん 2024/01/31(水) 01:16:41.58 ID:G9cNXynQ0

学習は1.5やったらポージングやら絵柄に関して
微妙になる印象あったけどSDXLはそこら辺
浸食せずに学習出来るからほんま優秀や

568: 名無しのメタバースさん 2024/01/31(水) 03:21:29.16 ID:O/xrymIC0

まずは初音ミクを好きな絵師で
出してみるのがいいね
行き詰まった時も初心に帰るわ

635: 名無しのメタバースさん 2024/01/31(水) 10:14:45.11 ID:/cYq1w6ia

ponyでLECO作れた人いる?
ちゃんと動いてるか教えてクレメンス

639: 名無しのメタバースさん 2024/01/31(水) 10:20:59.77 ID:8ql3rNce0

>>635

前スレの175でponyの
iLECO使ってる人がおったで

644: 名無しのメタバースさん 2024/01/31(水) 10:30:53.62 ID:/cYq1w6ia

>>639

サンガツ

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1706534922
_________________________________________________________________________________