734: 名無しのメタバースさん 2023/03/25(土) 07:29:20.28 ID:mH/UzWav0
https://i.imgur.com/rdyT5UE.jpg
16000×832
97人で残念ながら100人到達ならず
でもこれだけいるのにとても安定していると思う
Tiled Diffusion(MultiDiffusion)すごい
Latent tile width 48
Latent tile overlap 52
に設定することで間を詰めて人数を増やすことができた
数値を変えればもっと増やせそうだけど、
今回でも3060だと40分かかったんで
これ以上はちょっと無理かも
737: 名無しのメタバースさん 2023/03/25(土) 07:50:15.57 ID:A0Eoc1gq0
>>734
すげ
576: 名無しのメタバースさん 2023/03/24(金) 22:05:04.16 ID:rOVsNVTqa
前に3D Openpose Editorで
鼻を軸に顔を回転させたいって言ってたニキ
昨日修正を取り込んでもらったんで
まだ使ってたら試してみてや
https://github.com/nonnonstop/sd-webui-3d-open-pose-editor
https://zhuyu1997.github.io/open-pose-editor/
こんなんやけど認識違ってたらすまんやで
https://i.imgur.com/SLzbiMy.jpg
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
はい
https://imgur.com/a/UYWIsGY
500: 名無しのメタバースさん 2023/03/28(火) 00:24:32.69 ID:fXyKrWQ00
あと最近でたcivitaiのlora用モデルの
検証も貼っとくわ
お休み
https://imgur.com/a/Gj8WT1L
508: 名無しのメタバースさん 2023/03/28(火) 00:35:00.59 ID:oDcxbicC0
クイックセッティングの
Add hypernetwork to promptの表示がかわって
HNを外せなくなったんやが直し方ある?
(空欄がなくなって何も選択しないことができない)
いちおうextranetworkの強度ごと0にして問題はないんやけど
517: 名無しのメタバースさん 2023/03/28(火) 00:43:53.11 ID:mjtuziav0
>>508
多分config.jsonのsd_hypernetworkを””にすれば
空になる
522: 名無しのメタバースさん 2023/03/28(火) 00:48:01.43 ID:mjtuziav0
>>517
でも次に何か選んだら
またそのままになりそうね……
510: 名無しのメタバースさん 2023/03/28(火) 00:37:08.21 ID:VtOyVN65a
多分元モデルのAI絵が得意な光沢感とか
モデルの画風への追従性大事にする人は
512pxが好みと言うやろうし
ブルアカの原画とかアニメ絵っぽい雰囲気好きな人は
1024pxが好きと言うやろうしで
結論出ない奴なのでは...
511: 名無しのメタバースさん 2023/03/28(火) 00:39:17.19 ID:fXyKrWQ00
ワイより知見あるやついそうだし多様性や
最終的には教師画像やから厳選するのが一番やで
513: 名無しのメタバースさん 2023/03/28(火) 00:40:32.55 ID:87B//YLM0
今日はローカル環境を
ドライバーもcudaも新しくして
sdp動くようにしてwuiも拡張も
全部最新版で動くように環境を整えた
なお1060みたいなクソ雑魚なんて
それをやった所で特に早くはならんもよう
paperspaceの方はフロントエンドも
バックエンドも最新にするのは無理や
wuiは性質的に根が深過ぎて待てば
誰かが直してくれるって気すらせえへん
cudaも恐らく向こう数ヶ月から数年は11.6のままだろう
516: 名無しのメタバースさん 2023/03/28(火) 00:41:51.30 ID:mlUyrwNm0
本当に優劣つけるなら
素材の種類をいっぱい用意して
複数のLoraを学習画像の解像度意外一致させた状態で作って
ブラインドテストでもするしかないんちゃうんか
いい感じにできたのが正義なんやから
とはいえ学習時間と出来が見合っとらんと
実用的でないって話になりかねんし難しいね
519: 名無しのメタバースさん 2023/03/28(火) 00:45:29.93 ID:87B//YLM0
>>516
やはりdim…
dimはすべてを解決する…
524: 名無しのメタバースさん 2023/03/28(火) 00:51:56.34 ID:36qJpQBo0
512と1024全然違くて草
でもこれ14と4のバッチサイズの
影響は無いんか?
528: 名無しのメタバースさん 2023/03/28(火) 00:54:29.54 ID:Nu93oMxp0
>>524
バッチサイズ差だけなら経験上
ここまで露骨な差にはならんと思う
527: 名無しのメタバースさん 2023/03/28(火) 00:54:23.10 ID:3VV7/8KQM
人間というか1girlだと結局元モデルの出力
右から左になりがちだし元モデルで
あんま再現できない要素で比較すると良いんちゃうか
つまりL85を上手く描画できる方が正義
532: 名無しのメタバースさん 2023/03/28(火) 00:58:27.70 ID:yeAw5nRMd
dim32でこんだけ細部拾ってるなら
1024は時間とファイルサイズトレードで
ようやっとるということでは?
539: 名無しのメタバースさん 2023/03/28(火) 01:06:01.38 ID:D9i8vTPc0
>>532
ファイルサイズトレードってのは
あまりにも大差のタイムトレード覆すほどの
価値なのかってのと、そもそも
ファイルサイズトレード目指すなら
lohaにするって問題が出てくるし
そもそも1024を採択するとしたら
他のあらゆるもの犠牲にしてでも精細にしたいという
要求へのワン・イシューであって他の要素との
トレードオフは無視するのが適切ちゃうか
否定派も肯定派もそれ以外はそもそも求めてないと思う
542: 名無しのメタバースさん 2023/03/28(火) 01:08:37.71 ID:yeAw5nRMd
>>539
いやそもそもは1024で学習しても
細部取れへんって人が何人もいたやん
536: 名無しのメタバースさん 2023/03/28(火) 01:01:19.64 ID:MoszbpHc0
コピー機というか512の方が
モデルの影響が強く出てて
1024の方が画像の影響強く出とるとかでは
537: 名無しのメタバースさん 2023/03/28(火) 01:01:41.37 ID:prp0KcCp0
1024は正直コピー機感あるけど
そもそも二次創作絵で求めているのは
ある程度の判子絵なので
それはそれで良いのではという気もする。解なし、や
544: 名無しのメタバースさん 2023/03/28(火) 01:11:41.80 ID:sz8ETmsw0
LoRA学習のトレードオフって何があるんだろうな
謎が深い
546: 名無しのメタバースさん 2023/03/28(火) 01:15:25.21 ID:EzmqWpBQa
ノベルAI流行った頃から
久々にAIやってみたけど浦島太郎やほんま
学習とかどっから手を付けるのが分かりやすいんや?
548: 名無しのメタバースさん 2023/03/28(火) 01:16:34.82 ID:+TAVMMkW0
棒人間のやつ認識するくらいから
浦島なんだがなんかそのあとあった?
552: 名無しのメタバースさん 2023/03/28(火) 01:18:49.43 ID:epUSR0Cwx
>>548
ありすぎて全部把握できてる人おらんと思う
555: 名無しのメタバースさん 2023/03/28(火) 01:21:17.28 ID:prp0KcCp0
まだVRAM48GBと
噂のTitan RTX Adaが控えてるで
勢いあまってPC新調しちゃったワイは手が出ないが
557: 名無しのメタバースさん 2023/03/28(火) 01:22:51.10 ID:NZMS/QwY0
どっちも過学習には程遠いから
比較としての意味がないと思った
比べるなら1e-3で1batch換算4000~8000stepくらいやって
線が変になったり白い背景しか出なくなったりする
直前のギリギリ実用出来る所の奴同士で比べるべかちゃうか
寝る前に1024で仕込んでみるわ
561: 名無しのメタバースさん 2023/03/28(火) 01:24:35.94 ID:Hec2aMCf0
なんか更新の話怖くて
二週間くらいgit pullしてないけど
高速化周り--xformersしかしてなくて
そのままにしたい場合記述も
どこかしら変えなあかんのやろか
torch2.0というのが使えるようになったらしいけど
導入する気なかったら何もせんで良いのかも分かってない
564: 名無しのメタバースさん 2023/03/28(火) 01:27:43.48 ID:sV9SZ4pPa
あと1024がコピー機っぽく見えるのは
全部典型的なfull_body構図だからなのもあると思うわ
kohyaニキスクリプトで出力されたlatent_cacheを
比較すると分かるけど、高解像度だとそれだけ
同じような構図ばっか入力されるので当然といえば当然
なんかrentryに同じこと書いてた兄貴がいたけど、
高解像度ならそれだけ構図がワンパならないよう
データセットのクロップを気を付けた方が良い
594: 名無しのメタバースさん 2023/03/28(火) 02:05:25.48 ID:prp0KcCp0
あと地味に>>564が大事やわ
32x32のドット絵で1px変わるとみんな違う画像に
見えてくるけど64x64で1px変わtっても同じ画像に見えてしまう
結局何pxで学習するにしても、その解像度に
耐えうるデータセットを用意できるかという事
565: 名無しのメタバースさん 2023/03/28(火) 01:28:06.95 ID:+rwzf4Er0
今日はLatentCompositeを
あれこれ弄ってる間にめっちゃスレ進んどるな
というわけでギャラクシー
https://i.imgur.com/kO4y12D.jpg
https://i.imgur.com/G8f7ukv.png
570: 名無しのメタバースさん 2023/03/28(火) 01:42:21.87 ID:DkSwdJmR0
はい急造したハナエ512
申し訳ないがただの学習不足loraで
結論付けるのはNG
https://i.imgur.com/14e9PaS.png
589: 名無しのメタバースさん 2023/03/28(火) 02:01:07.17 ID:NZMS/QwY0
>>570
結局これよ
そもそも512でこのレベルになるのに
1024でなきゃいけない理由が見い出せへんわ
592: 名無しのメタバースさん 2023/03/28(火) 02:02:51.47 ID:W2r5sQ6z0
>>570
やはりdim…
dimはすべてを解決する…
610: 名無しのメタバースさん 2023/03/28(火) 02:17:05.38 ID:MoszbpHc0
ワイはloconのベスト設定が知りたいなぁ
635: 名無しのメタバースさん 2023/03/28(火) 02:49:26.42 ID:8RuYPiKG0
結局データセットとdimを調整するのが一番やな
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1679571571/
https://nozomi.2ch.sc/test/read.cgi/liveuranus/1679896401/
_________________________________________________________________________________
コメントする