158: 名無しのメタバースさん 2023/03/15(水) 16:19:03.36 ID:xXvaWm1ka

縮小した画像混ぜて1024、512、256、128で
学習するの試してみたんやけど
縮小時のノイズ的なのまで学習してまう
縮小の方法が悪いんやろか🤔

162: 名無しのメタバースさん 2023/03/15(水) 16:23:34.56 ID:GZQqxJVHd

>>158

そもそも縮小した画像まぜてどうしたいんや

163: 名無しのメタバースさん 2023/03/15(水) 16:24:19.73 ID:mksPRNqY0

>>158

学習素材の画質が命なのに
自ら下げに行くやり方は
どっから出てきたんやそもそも

169: 名無しのメタバースさん 2023/03/15(水) 16:32:25.55 ID:R+5qYtoI0

>>163

たぶんkohya氏がそういう話聞いて
--bucket_no_upscaleというコマンドを
追加したって話じゃない?
小さい画像でも画質が悪い画像は
いれないほうがええわな

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku


160: 名無しのメタバースさん 2023/03/15(水) 16:19:54.77 ID:Ik3kkT590

kohyaのsd-scriptの.md
全部ちゃんと読んだほうがいいと思います

164: 名無しのメタバースさん 2023/03/15(水) 16:26:58.79 ID:jigK5Vat0

素材たっぷりあるんやったら
縮小してまでやる必要ないで
生首ニキの話からやろうけどあれは少ない素材
(一枚とか)から錬金するための手法や

167: 名無しのメタバースさん 2023/03/15(水) 16:30:22.76 ID:/lpvDrlGa

kohyaニキ記載のやり方で
やってるんか?縮小学習は
多分自動拡大onでやってるやろそれ

170: 名無しのメタバースさん 2023/03/15(水) 16:33:08.34 ID:QPAn6aZO0

これやろ
https://twitter.com/kohya_tech/status/1623328866889793540

https://github.com/kohya-ss/sd-scripts/blob/main/train_network_README-ja.md#%E7%94%BB%E5%83%8F%E3%83%AA%
E3%82%B5%E3%82%A4%E3%82%BA%E3%82%B9%
E3%82%AF%E3%83%AA%E3%83%97%E3%83%88

172: 名無しのメタバースさん 2023/03/15(水) 16:35:28.39 ID:mksPRNqY0

あー製作者のread meか
特定用途のためであって
推奨してるわけではなさそうやが

176: 名無しのメタバースさん 2023/03/15(水) 16:43:05.74 ID:Vec5NBnR0

画面内に小さく人物が写ってる場合、
縮小画像も学習してるとそれを参照するから
顔等が崩壊しにくいってことじゃないだろうか
常に1girlでしか使わないなら関係なさそう

185: 名無しのメタバースさん 2023/03/15(水) 16:52:36.79 ID:/lpvDrlGa

あ、すまん訂正
512,384,256の3サイズに縮小やね
128は作ってないわ

189: 名無しのメタバースさん 2023/03/15(水) 16:58:29.59 ID:jigK5Vat0

>>185

あ、それならわかる
個人的な経験則ですまんけど
128混ぜるとノイズ増える気がするんよな

235: 名無しのメタバースさん 2023/03/15(水) 18:29:51.74 ID:O8W0s/G40

むしろここから先にAI画像生成は、
公的には『モデルデータのクリーン化()』
とかいって、ドンドンモデルデータのデータ削りだして
後退していく未来しか見えないのが本音
今より更にloraごり押しが加速するんじゃなかろうか

まぁスレ民的には、現時点で存在する
モデルデータがある限り、後退する要素は無いけどな

254: 名無しのメタバースさん 2023/03/15(水) 19:55:35.36 ID:GMOyMSua0

Loraの学習で質問やねんけど
3060のVRAM12でエポック20・バッチサイズ6・ステップ3800
くらいで2時間くらいかかるんやけどこんなもんなんかな?

261: 名無しのメタバースさん 2023/03/15(水) 20:04:37.08 ID:O8W0s/G40

>>254

バッチ6でステップ3800って、
それ実質19800ステップなのでは?
そりゃそこまで膨大な学習してたらそれぐらいかかるで
ちなみに自分の場合はそんな膨大な学習はせんので
RTX3060使ってても大体遅くても
40分かかるかぐらいのしか作ってないわ

265: 名無しのメタバースさん 2023/03/15(水) 20:14:50.68 ID:GMOyMSua0

>>261

学習の設定よく分からんくて
Loraで調べて出たサイトに載ってるやつ
そのまま使ってたわ…学習させすぎなのかな?

268: 名無しのメタバースさん 2023/03/15(水) 20:17:48.07 ID:QPAn6aZO0

>>265

どれくらい学習が必要なのかは
他の設定によって変わるからわからん
学習途中のを保存して自分で試せばええ

まあさすがに2時間は設定がおかしいか
学習しすぎやと思うけどな

269: 名無しのメタバースさん 2023/03/15(水) 20:18:19.14 ID:EBzHVKIQ0

>>265

19800ステップって
何を学習させたんやそのサイトは…

270: 名無しのメタバースさん 2023/03/15(水) 20:19:35.75 ID:O8W0s/G40

>>265

一回、エポック毎にデータ保存させて
完成品一通り試してみるのもありやで
エポック20まで作ってても実際は
10届かないかぐらいで完成してる可能性高い

271: 名無しのメタバースさん 2023/03/15(水) 20:21:39.15 ID:RuDAreyC0

3060ti民ワイREALESRGUN+ANIMEの
step20ノイズ除去0.3アプスケでごまかしてたけど
4080とかにしたら素でその解像度出してくれるんか
ニキらのハイレゾ事情どうしてるん

>>265
バッチサイズは1か2でええで
バッチサイズの数だけ倍になるんや。
学習率や名に作るかにもよるがキャラや服なら
ステップ3000~6000くらいが相場だと思う

273: 名無しのメタバースさん 2023/03/15(水) 20:23:26.43 ID:O8W0s/G40

>>271

バッチサイズは並列処理数であって
学習を増やすわけでは無いぞ?

279: 名無しのメタバースさん 2023/03/15(水) 20:26:44.28 ID:RuDAreyC0

>>273

それは分かってるけど、
結局その分ステップは減るんじゃなくて
増えるんじゃないんか?
エポックx繰り返しxバッチ数=ステップじゃないんか

283: 名無しのメタバースさん 2023/03/15(水) 20:35:12.02 ID:O8W0s/G40

>>279

考え方が逆だ
あくまで大まかなイメージだが、
たとえばステップ数が10000になる学習を
バッチサイズ2で行うと、
表示上のステップ数は5000になって、
スレッドで平行して学習するようなイメージ

上記学習をバッチサイズ5で行うと
5スレッド平行して学習する事になるので
表示上のステップ数は2000になる

もちろんバッチサイズをにしたからと言って
バッチサイズ1の5倍早いわけではないが、
全体的に学習速度は1のときより結構上がる

287: 名無しのメタバースさん 2023/03/15(水) 20:37:34.82 ID:RuDAreyC0

>>283
,284
表記上のステップ数が変わるのか
低VRAM難民だから1のままやってたから
知らなかったわサンガツ

288: 名無しのメタバースさん 2023/03/15(水) 20:41:23.02 ID:O8W0s/G40

>>287

更に念のため誤解が無いように
屁理屈気味に補足しておくと、
バッチ数単位でまとめて処理する内容の一塊が1ステップだから、
実際のステップ数表現としても正しい値の表現ではある

289: 名無しのメタバースさん 2023/03/15(水) 20:45:35.52 ID:DechIfHh0

>>288

それ重要やんやっと納得行ったわサンガツ

292: 名無しのメタバースさん 2023/03/15(水) 21:13:43.28 ID:O8W0s/G40

多分、
『実施学習量(バッチ1におけるステップ数)』と
『必要行程数(バッチを加味した並列作業としてのステップ数)』
っていう部分がどっちも『ステップ数』っていう言葉に纏まってるのが、
ちょくちょく説明面倒になる理由だと思う

『実施学習量』に相当するユニークな名称って正式には無いんかな……

294: 名無しのメタバースさん 2023/03/15(水) 21:15:10.24 ID:QPAn6aZO0

画像10枚・繰り返し10回・10エポックやと
1000枚分の学習をすることになるやろ
バッチ数が2やと、1ステップに2枚分の学習をするんで
500ステップになるんや

295: 名無しのメタバースさん 2023/03/15(水) 21:15:12.35 ID:j5OeIEe40

じゃあ学習の重みの基準としてstep数を
記載するのは参考にならんってことか

296: 名無しのメタバースさん 2023/03/15(水) 21:18:31.28 ID:H95H84KX0

学習素材数×繰り返し数=1epochの学習数
1epochの学習数÷バッチ数=1epochのstep数

1epochの学習数×epoch数=トータルの学習数
トータルの学習数÷バッチ数=延べstep数

学習数とstep数を一緒に表現してるのが
紛らわしい原因じゃないかな

299: 名無しのメタバースさん 2023/03/15(水) 21:22:03.23 ID:OVrmgR9i0

繰り返し10のエポック10と
繰り返し1のエポック100
みたいなことは全然違う?

302: 名無しのメタバースさん 2023/03/15(水) 21:25:33.10 ID:ukrJS7oX0

バッチ数変えたら学習率も比例して変えんとあかんぞ
ということがGoogleの論文に書いてあるが
loraレベルの学習量で体感できるかは知らん

303: 名無しのメタバースさん 2023/03/15(水) 21:32:43.15 ID:O8W0s/G40

そこ(学習率とか)も考慮し出すと……
まぁキリないからなぁ

304: 名無しのメタバースさん 2023/03/15(水) 21:35:15.71 ID:QPAn6aZO0

自動で調整してくれるAdafactorも
学習率低すぎるみたいで時間かかるしな

315: 名無しのメタバースさん 2023/03/15(水) 22:01:23.99 ID:RuDAreyC0

ワイがいかに雰囲気でLoraやってるか
ばれてしまったわ
恥ずかしい限りや

316: 名無しのメタバースさん 2023/03/15(水) 22:07:22.91 ID:jigK5Vat0

学習率もなあ 適当にいじりまくっとるわ

359: 名無しのメタバースさん 2023/03/15(水) 23:12:22.57 ID:lxnkt+ij0

バッチサイズの件は kohya氏が
詳しくドキュメントに書いてくれてるから、
いっぺん読んどこ?

https://github.com/kohya-ss/sd-scripts/blob/main/train_README-ja.md

363: 名無しのメタバースさん 2023/03/15(水) 23:17:26.22 ID:O8W0s/G40

>>359

サンガツ!

(ただし、たとえば「バッチサイズ1で1600ステップ」と
「バッチサイズ4で400ステップ」は同じ結果にはなりません。
同じ学習率の場合、一般的には後者のほうが学習不足になります。
学習率を多少大きくするか(たとえば 2e-6 など)、
ステップ数をたとえば500ステップにするなどして工夫してください。)

ほーん……同時にしてる分各データでの個々の結果を
順序立てて適用出来ないようなイメージでええんかな?

369: 名無しのメタバースさん 2023/03/15(水) 23:25:59.12 ID:EBzHVKIQ0

>>363

実際微妙に違うものが出てくる
上はバッチサイズ1、下はバッチサイズ2で
それ以外同条件で生成した画像

念のため言っておくけどこれだけでバッチサイズ
どっちがクオリティ高いとかそういう話ではないで
バッチサイズ次第でまぁまぁ違うものができるという話
この時作ったのはどっちも失敗やったし

364: 名無しのメタバースさん 2023/03/15(水) 23:17:34.61 ID:DechIfHh0

>>359

だいぶREADMEも変わってきとるな
kohyaニキに感謝やで
wikiも書き換えんとあかんな

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678829220/
_________________________________________________________________________________