734: 名無しのメタバースさん 2023/03/25(土) 07:29:20.28 ID:mH/UzWav0

https://i.imgur.com/rdyT5UE.jpg
16000×832
97人で残念ながら100人到達ならず
でもこれだけいるのにとても安定していると思う
Tiled Diffusion(MultiDiffusion)すごい

Latent tile width 48
Latent tile overlap 52
に設定することで間を詰めて人数を増やすことができた
数値を変えればもっと増やせそうだけど、
今回でも3060だと40分かかったんで
これ以上はちょっと無理かも

737: 名無しのメタバースさん 2023/03/25(土) 07:50:15.57 ID:A0Eoc1gq0

>>734

すげ

576: 名無しのメタバースさん 2023/03/24(金) 22:05:04.16 ID:rOVsNVTqa

前に3D Openpose Editorで
鼻を軸に顔を回転させたいって言ってたニキ
昨日修正を取り込んでもらったんで
まだ使ってたら試してみてや
https://github.com/nonnonstop/sd-webui-3d-open-pose-editor
https://zhuyu1997.github.io/open-pose-editor/
こんなんやけど認識違ってたらすまんやで
https://i.imgur.com/SLzbiMy.jpg

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku


498: 名無しのメタバースさん 2023/03/28(火) 00:21:31.32 ID:fXyKrWQ00

はい
https://imgur.com/a/UYWIsGY

500: 名無しのメタバースさん 2023/03/28(火) 00:24:32.69 ID:fXyKrWQ00

あと最近でたcivitaiのlora用モデルの
検証も貼っとくわ
お休み
https://imgur.com/a/Gj8WT1L

508: 名無しのメタバースさん 2023/03/28(火) 00:35:00.59 ID:oDcxbicC0

クイックセッティングの
Add hypernetwork to promptの表示がかわって
HNを外せなくなったんやが直し方ある?
(空欄がなくなって何も選択しないことができない)
いちおうextranetworkの強度ごと0にして問題はないんやけど 

517: 名無しのメタバースさん 2023/03/28(火) 00:43:53.11 ID:mjtuziav0

>>508

多分config.jsonのsd_hypernetworkを””にすれば
空になる

522: 名無しのメタバースさん 2023/03/28(火) 00:48:01.43 ID:mjtuziav0

>>517

でも次に何か選んだら
またそのままになりそうね……

510: 名無しのメタバースさん 2023/03/28(火) 00:37:08.21 ID:VtOyVN65a

多分元モデルのAI絵が得意な光沢感とか
モデルの画風への追従性大事にする人は
512pxが好みと言うやろうし
ブルアカの原画とかアニメ絵っぽい雰囲気好きな人は
1024pxが好きと言うやろうしで
結論出ない奴なのでは...

511: 名無しのメタバースさん 2023/03/28(火) 00:39:17.19 ID:fXyKrWQ00

ワイより知見あるやついそうだし多様性や
最終的には教師画像やから厳選するのが一番やで

513: 名無しのメタバースさん 2023/03/28(火) 00:40:32.55 ID:87B//YLM0

今日はローカル環境を
ドライバーもcudaも新しくして
sdp動くようにしてwuiも拡張も
全部最新版で動くように環境を整えた
なお1060みたいなクソ雑魚なんて
それをやった所で特に早くはならんもよう

paperspaceの方はフロントエンドも
バックエンドも最新にするのは無理や
wuiは性質的に根が深過ぎて待てば
誰かが直してくれるって気すらせえへん
cudaも恐らく向こう数ヶ月から数年は11.6のままだろう

516: 名無しのメタバースさん 2023/03/28(火) 00:41:51.30 ID:mlUyrwNm0

本当に優劣つけるなら
素材の種類をいっぱい用意して
複数のLoraを学習画像の解像度意外一致させた状態で作って
ブラインドテストでもするしかないんちゃうんか
いい感じにできたのが正義なんやから
とはいえ学習時間と出来が見合っとらんと
実用的でないって話になりかねんし難しいね

519: 名無しのメタバースさん 2023/03/28(火) 00:45:29.93 ID:87B//YLM0

>>516

やはりdim…
dimはすべてを解決する…

524: 名無しのメタバースさん 2023/03/28(火) 00:51:56.34 ID:36qJpQBo0

512と1024全然違くて草
でもこれ14と4のバッチサイズの
影響は無いんか?

528: 名無しのメタバースさん 2023/03/28(火) 00:54:29.54 ID:Nu93oMxp0

>>524

バッチサイズ差だけなら経験上
ここまで露骨な差にはならんと思う

527: 名無しのメタバースさん 2023/03/28(火) 00:54:23.10 ID:3VV7/8KQM

人間というか1girlだと結局元モデルの出力
右から左になりがちだし元モデルで
あんま再現できない要素で比較すると良いんちゃうか
つまりL85を上手く描画できる方が正義

532: 名無しのメタバースさん 2023/03/28(火) 00:58:27.70 ID:yeAw5nRMd

dim32でこんだけ細部拾ってるなら
1024は時間とファイルサイズトレードで
ようやっとるということでは?

539: 名無しのメタバースさん 2023/03/28(火) 01:06:01.38 ID:D9i8vTPc0

>>532

ファイルサイズトレードってのは
あまりにも大差のタイムトレード覆すほどの
価値なのかってのと、そもそも
ファイルサイズトレード目指すなら
lohaにするって問題が出てくるし
そもそも1024を採択するとしたら

他のあらゆるもの犠牲にしてでも精細にしたいという
要求へのワン・イシューであって他の要素との
トレードオフは無視するのが適切ちゃうか
否定派も肯定派もそれ以外はそもそも求めてないと思う

542: 名無しのメタバースさん 2023/03/28(火) 01:08:37.71 ID:yeAw5nRMd

>>539

いやそもそもは1024で学習しても
細部取れへんって人が何人もいたやん

536: 名無しのメタバースさん 2023/03/28(火) 01:01:19.64 ID:MoszbpHc0

コピー機というか512の方が
モデルの影響が強く出てて
1024の方が画像の影響強く出とるとかでは

537: 名無しのメタバースさん 2023/03/28(火) 01:01:41.37 ID:prp0KcCp0

1024は正直コピー機感あるけど
そもそも二次創作絵で求めているのは
ある程度の判子絵なので
それはそれで良いのではという気もする。解なし、や

544: 名無しのメタバースさん 2023/03/28(火) 01:11:41.80 ID:sz8ETmsw0

LoRA学習のトレードオフって何があるんだろうな
謎が深い

546: 名無しのメタバースさん 2023/03/28(火) 01:15:25.21 ID:EzmqWpBQa

ノベルAI流行った頃から
久々にAIやってみたけど浦島太郎やほんま
学習とかどっから手を付けるのが分かりやすいんや?

548: 名無しのメタバースさん 2023/03/28(火) 01:16:34.82 ID:+TAVMMkW0

棒人間のやつ認識するくらいから
浦島なんだがなんかそのあとあった?

552: 名無しのメタバースさん 2023/03/28(火) 01:18:49.43 ID:epUSR0Cwx

>>548

ありすぎて全部把握できてる人おらんと思う

555: 名無しのメタバースさん 2023/03/28(火) 01:21:17.28 ID:prp0KcCp0

まだVRAM48GBと
噂のTitan RTX Adaが控えてるで
勢いあまってPC新調しちゃったワイは手が出ないが

557: 名無しのメタバースさん 2023/03/28(火) 01:22:51.10 ID:NZMS/QwY0

どっちも過学習には程遠いから
比較としての意味がないと思った
比べるなら1e-3で1batch換算4000~8000stepくらいやって
線が変になったり白い背景しか出なくなったりする
直前のギリギリ実用出来る所の奴同士で比べるべかちゃうか
寝る前に1024で仕込んでみるわ

561: 名無しのメタバースさん 2023/03/28(火) 01:24:35.94 ID:Hec2aMCf0

なんか更新の話怖くて
二週間くらいgit pullしてないけど
高速化周り--xformersしかしてなくて
そのままにしたい場合記述も
どこかしら変えなあかんのやろか
torch2.0というのが使えるようになったらしいけど
導入する気なかったら何もせんで良いのかも分かってない

564: 名無しのメタバースさん 2023/03/28(火) 01:27:43.48 ID:sV9SZ4pPa

あと1024がコピー機っぽく見えるのは
全部典型的なfull_body構図だからなのもあると思うわ
kohyaニキスクリプトで出力されたlatent_cacheを
比較すると分かるけど、高解像度だとそれだけ
同じような構図ばっか入力されるので当然といえば当然
なんかrentryに同じこと書いてた兄貴がいたけど、
高解像度ならそれだけ構図がワンパならないよう
データセットのクロップを気を付けた方が良い

594: 名無しのメタバースさん 2023/03/28(火) 02:05:25.48 ID:prp0KcCp0

あと地味に>>564が大事やわ
32x32のドット絵で1px変わるとみんな違う画像に
見えてくるけど64x64で1px変わtっても同じ画像に見えてしまう
結局何pxで学習するにしても、その解像度に
耐えうるデータセットを用意できるかという事

565: 名無しのメタバースさん 2023/03/28(火) 01:28:06.95 ID:+rwzf4Er0

今日はLatentCompositeを
あれこれ弄ってる間にめっちゃスレ進んどるな
というわけでギャラクシー
https://i.imgur.com/kO4y12D.jpg
https://i.imgur.com/G8f7ukv.png

570: 名無しのメタバースさん 2023/03/28(火) 01:42:21.87 ID:DkSwdJmR0

はい急造したハナエ512
申し訳ないがただの学習不足loraで
結論付けるのはNG
https://i.imgur.com/14e9PaS.png

589: 名無しのメタバースさん 2023/03/28(火) 02:01:07.17 ID:NZMS/QwY0

>>570

結局これよ
そもそも512でこのレベルになるのに
1024でなきゃいけない理由が見い出せへんわ

592: 名無しのメタバースさん 2023/03/28(火) 02:02:51.47 ID:W2r5sQ6z0

>>570

やはりdim…
dimはすべてを解決する…

610: 名無しのメタバースさん 2023/03/28(火) 02:17:05.38 ID:MoszbpHc0

ワイはloconのベスト設定が知りたいなぁ

635: 名無しのメタバースさん 2023/03/28(火) 02:49:26.42 ID:8RuYPiKG0

結局データセットとdimを調整するのが一番やな

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1679571571/
https://nozomi.2ch.sc/test/read.cgi/liveuranus/1679896401/
_________________________________________________________________________________