136: 名無しのメタバースさん 2023/03/10(金) 01:15:55.07 ID:a2OTq4U90
先日はコピー機学習法で
目を大きくするLoraを作ったわけだが
今日は線が太くなるという地味なLoraを作ってみた、
無論コピー機学習法でな
https://i.imgur.com/xM25qex.jpg
https://huggingface.co/2vXpSwA7/iroiro-lora/blob/
main/test/test-boldline.safetensors
調整用にどうかね?
137: 名無しのメタバースさん 2023/03/10(金) 01:21:52.00 ID:jsFj1br50
>>136
絵柄いじらずに
主線太くできるのは地味に嬉しいな
タスカル
138: 名無しのメタバースさん 2023/03/10(金) 01:22:49.91 ID:ZlkK0w2FH
>>136
素晴らしい
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
140: 名無しのメタバースさん 2023/03/10(金) 01:23:55.43 ID:lBzGgb2r0
>>136
🙌
142: 名無しのメタバースさん 2023/03/10(金) 01:28:37.11 ID:sMh96Kc/0
>>136
はえ~すごいええやん
143: 名無しのメタバースさん 2023/03/10(金) 01:29:23.67 ID:i3c4VASj0
>>136
すごE。Diffusionモデルのいいとこ完璧に引き出しとる
144: 名無しのメタバースさん 2023/03/10(金) 01:31:14.99 ID:nvyYtSHt0
>>136
すごい
サンガツ
146: 名無しのメタバースさん 2023/03/10(金) 01:34:25.83 ID:bAemoSQEM
>>136
これはいいね
指の補正とかにも使えないかな
濃く描かれると指が綺麗になるみたいなこと
技術部で話してたし
147: 名無しのメタバースさん 2023/03/10(金) 01:35:43.22 ID:/y40k2Gs0
>>136
これマイナス適用も出来るのええな
152: 名無しのメタバースさん 2023/03/10(金) 01:47:00.79 ID:nvyYtSHt0
>>136
線の太さ以外も微妙に変わるんやが仕様?
それともわいのやり方のせい?
https://i.imgur.com/HQgBmzz.jpg
160: 名無しのメタバースさん 2023/03/10(金) 02:09:28.29 ID:a2OTq4U90
>>152
今回のLora、テキストエンコーダー部分も
学習してちゃってるんでそのせいかなー多分
層別適用でOUT浅層だけ有効にするとか、
AdditionalNetworksで適用するならTEncを0にするとか
そんな感じで使えばマシにはなるんじゃないかと
167: 名無しのメタバースさん 2023/03/10(金) 02:23:02.35 ID:nvyYtSHt0
>>160
サンガツ
いずれにしろ神や
ほんまありがとうやで
156: 名無しのメタバースさん 2023/03/10(金) 01:56:06.36 ID:CJsYC6Wx0
>>136
マジ神
ちょうど線太いのどうにかしたくて
調べてるところだった
理想の効果だったわ
139: 名無しのメタバースさん 2023/03/10(金) 01:23:36.69 ID:XAZEPj0OM
マイナス適用もええ感じやな
いただくでサンガツ
162: 名無しのメタバースさん 2023/03/10(金) 02:11:37.91 ID:J7QZwKZE0
loraの適用強度で絵が変化するのは
最終的に探索する層が変化するから当たり前か
普段0.3~1ぐらいの範囲でやってたから
-5~5ぐらいの範囲で試すとかしなかったもんな
強度あげすぎると過学習の成果で全部崩れるから
5とかで生成するとかまず出来ないし
これはこれでおもしろいけど
164: 名無しのメタバースさん 2023/03/10(金) 02:13:01.61 ID:CcS+QoV20
0.6のつもりが6になってて
モザイクだらけとかやった人も少なくなかろう
175: 名無しのメタバースさん 2023/03/10(金) 02:45:00.25 ID:J7QZwKZE0
例の領域指定で再書き込みとか出来るやつだっけ
うまくできればお手々ガチャやりやすいってことかな
自環境だとうまく動かなかったから試してないけど…
609: 名無しのメタバースさん 2023/03/22(水) 00:36:50.25 ID:sD6oce0u0
LoRAは気になるものだけ厳選してダウンロードだけど、
とりあえず一度使ってみるなぁ。
自分の使うモデルでちゃんと表現されるか
確認する意味合いと、こんなのできたぞって
どこかにあげるまでをやっておくと
何のLoRA持ってたか覚えやすい。
使ってみて思うように活用できないなと思ったら削除してる。
614: 名無しのメタバースさん 2023/03/22(水) 00:50:12.30 ID:godHFNCB0
なんか今更なんやけど
キャラ再現loraをそれなりに作ってきて思うのは
NAIベースで学習したものをNAIで
出力してまともになったことがただの一度もないんよ
崩れたりして失敗かと思うけどなぜか7thanimeV3とか
AOM2とかで出力するとすごく良かったりする
結果に文句はないんやけどみんなもそんなもん?
616: 名無しのメタバースさん 2023/03/22(水) 00:53:05.95 ID:Cipcxhg80
>>614
違うかもしれないけどnaiは元々その2つに比べて
ネガプロとかプロをしっかり入れないと
綺麗に表示されないからネガ増やしてみたり
ネガtiやlora併用して見たらどうだろうか?
aom2とか7thanimeはプロもネガも少なくていい物が
出てきてた気がするから
620: 名無しのメタバースさん 2023/03/22(水) 01:11:16.57 ID:godHFNCB0
>>616
なるほどサンガツ
ちょっと試したけどあんまり変わらんかった
ちなみに7thAで学習して7thAで
出力してもやっぱりへなちょこやった
まあ実際うまくできてるからええか!雰囲気やな
627: 名無しのメタバースさん 2023/03/22(水) 01:32:31.04 ID:9/KgVUSfa
>>620
その場合元絵がへなちょこだったりしないか?
いやそうじゃないなら失礼な言い方でスマンやが
キャラ再現と言ってもクオリティも一緒に学習しちまうから、
学習モデルを元絵に近づけるように学習することになるでの
621: 名無しのメタバースさん 2023/03/22(水) 01:11:41.08 ID:ED+wFjhT0
>>614
NAIは構図と画風の自由度高い代わりに
細かく指定しないと
🎈クオリティばっかり出てくる
642: 名無しのメタバースさん 2023/03/22(水) 01:54:28.88 ID:godHFNCB0
>>621、>>627
ワイは徹底した原作至上主義やから
一応全ての元絵は厳選してるつもりなんやけどね…
元ネタ例
https://imgur.com/P9GMlLa.png
NAIで出したへなちょこ例
https://imgur.com/ZCSlpBS.png
同じプロンプトで7thAで出した
(ワイにとっての)合格例
https://imgur.com/qexfLfI.png
今試しに出してみたやつで
チェリーピッキングはしてないで
まあでもええんよ困っては無いんやすまんな…
644: 名無しのメタバースさん 2023/03/22(水) 01:57:49.16 ID:t7r7wj2M0
>>642
明らかに学習設定に問題アリやな
645: 名無しのメタバースさん 2023/03/22(水) 01:58:16.87 ID:bNH+o3xYM
>>642
学習素材の白抜きしたら解決するんちゃう?
650: 名無しのメタバースさん 2023/03/22(水) 02:09:58.64 ID:godHFNCB0
>>645
パラメータ的には普通やと思うんやけどね…
loconでdim64のalpha1or32、
1キャラで数十枚の場合は2000stepくらい、
複数キャラまとめての数百枚の場合は10000弱stepくらい、
しいて言えばtextencoderとu-netのlearning rateは設定してないな
30キャラくらい作っててどれも出来上がりには不満はないんよ
漫画の白黒コマのみで作ってもうまくいくし素朴な疑問というか
659: 名無しのメタバースさん 2023/03/22(水) 02:23:20.77 ID:t7r7wj2M0
>>650
まあこの出来で満足ならもう言うことはない
665: 名無しのメタバースさん 2023/03/22(水) 02:51:04.84 ID:godHFNCB0
>>659
はえー、みんな求めるレベル高いんやな
ワイはそこそこ似てて
squattingとcum on faceできたら満足なんよ
今お気に入りの画像貼ってどや?ってやろうとしてたけど
急に恥ずかしくなってきたからやめたわ危なかった
色々精進してみるサンガツ
705: 名無しのメタバースさん 2023/03/22(水) 03:55:29.60 ID:qP6+lG5T0
>>642
NAIでも
770: 名無しのメタバースさん 2023/03/22(水) 10:07:41.80 ID:gYdg7mTw0
遅レスやが、
俺も >>614 と全く同じ問題がずっと起こってて
これはもうそういうもんなんやと思いこんどったわ
他のニキ達のレス見ると、
改善の余地ありってことなんやろかな…
問題提起ありがとな
774: 名無しのメタバースさん 2023/03/22(水) 10:16:17.61 ID:lfgz8sPL0
>>770
モデルによって効き目が
全然違うのはまああるで
それに関してはモデル側の問題でもあるから
一概には言えない
806: 名無しのメタバースさん 2023/03/22(水) 11:57:26.81 ID:godHFNCB0
>>770
夜中ちょっと変なテンションで書いちゃって
見返すと恥ずかしいんやけど、
改めてワイの意見としてはこうやな
・「学習ベースモデルと出力モデルを合わせろ」
という意見もあるが必ずしもそうではない
・出力の第一印象悪くてもlora強度や前のepoch使うと
ばっちりになったりすることもある
・学習モデルとしてはNAIはおすすめ
・色移りや背景の幽霊は元素材の厳選で抑えられるから妥協するな
617: 名無しのメタバースさん 2023/03/22(水) 00:58:24.22 ID:Cipcxhg80
MultiDiffusion i2iで余りにも
いらない要素足すからcnも使って見たけど全然動かない
待ってればいいのかな?cn単体で使えたら、
MultiDiffusionの設定をしてcnに画像突っ込んで
両方オンにして実行でいいんだよね?
619: 名無しのメタバースさん 2023/03/22(水) 01:09:45.67 ID:wZVXQ8nQ0
>>617
その前にdenoising下げればいいんじゃないだろうか
635: 名無しのメタバースさん 2023/03/22(水) 01:42:00.27 ID:Cipcxhg80
>>619
denoisingは0.5なんですけど腕が変わっちゃったりして
出した後に簡単に修正できる方法があればいいんですが
数十分かかるから失敗すると辛いw
640: 名無しのメタバースさん 2023/03/22(水) 01:49:07.53 ID:bNH+o3xYM
>>635
元の画像どんなやつなん?
元々2人くらいならi2iしても人増えんかったよ
656: 名無しのメタバースさん 2023/03/22(水) 02:19:05.40 ID:Cipcxhg80
>>640
ちょっとサイズ大きいけど元絵はlora使って
MultiDiffusionはloraとかの
設定なしでクオリティとネガだけです
背景と腕が変わってたりして大きくして
書き込みだけ増やしてくれたらいいだけなのですが
上が通常下がhttps://i.imgur.com/xczajfQ.pngです
腕が機械に
https://i.imgur.com/5TTIfrB.png
https://i.imgur.com/CahkEy3.jpg
背景が異次元に
https://i.imgur.com/xczajfQ.png
https://i.imgur.com/8rSpdsH.jpg
658: 名無しのメタバースさん 2023/03/22(水) 02:20:53.10 ID:Cipcxhg80
>>656
>上が通常下がhttps //i.imgur.com/xczajfQ.pngです
文章間違えた下がMultiDiffusionですw
それとこれが最初に失敗したプロに
キャラ精製が入っちゃって
背景に一杯出てきたやつですw
https://i.imgur.com/I8jzHsZ.png
https://i.imgur.com/iaRjpRt.jpg
802: 名無しのメタバースさん 2023/03/22(水) 11:45:08.40 ID:oDPGIaZF0
>>656
サンガツ
majinaiにpromptやらの情報込で上げてくれたら
今夜にでもワイもi2iやってみたいわ
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678367246/
https://nozomi.2ch.sc/test/read.cgi/liveuranus/1679326948/
_________________________________________________________________________________
コメントする