136: 名無しのメタバースさん 2023/03/10(金) 01:15:55.07 ID:a2OTq4U90

先日はコピー機学習法で
目を大きくするLoraを作ったわけだが
今日は線が太くなるという地味なLoraを作ってみた、
無論コピー機学習法でな
https://i.imgur.com/xM25qex.jpg
https://huggingface.co/2vXpSwA7/iroiro-lora/blob/
main/test/test-boldline.safetensors
調整用にどうかね?

137: 名無しのメタバースさん 2023/03/10(金) 01:21:52.00 ID:jsFj1br50

>>136

絵柄いじらずに
主線太くできるのは地味に嬉しいな
タスカル

138: 名無しのメタバースさん 2023/03/10(金) 01:22:49.91 ID:ZlkK0w2FH

>>136

素晴らしい

※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku


140: 名無しのメタバースさん 2023/03/10(金) 01:23:55.43 ID:lBzGgb2r0

>>136

🙌

142: 名無しのメタバースさん 2023/03/10(金) 01:28:37.11 ID:sMh96Kc/0

>>136

はえ~すごいええやん

143: 名無しのメタバースさん 2023/03/10(金) 01:29:23.67 ID:i3c4VASj0

>>136

すごE。Diffusionモデルのいいとこ完璧に引き出しとる

144: 名無しのメタバースさん 2023/03/10(金) 01:31:14.99 ID:nvyYtSHt0

>>136

すごい
サンガツ

146: 名無しのメタバースさん 2023/03/10(金) 01:34:25.83 ID:bAemoSQEM

>>136

これはいいね
指の補正とかにも使えないかな 
濃く描かれると指が綺麗になるみたいなこと
技術部で話してたし

147: 名無しのメタバースさん 2023/03/10(金) 01:35:43.22 ID:/y40k2Gs0

>>136

これマイナス適用も出来るのええな

152: 名無しのメタバースさん 2023/03/10(金) 01:47:00.79 ID:nvyYtSHt0

>>136

線の太さ以外も微妙に変わるんやが仕様?
それともわいのやり方のせい?
https://i.imgur.com/HQgBmzz.jpg

160: 名無しのメタバースさん 2023/03/10(金) 02:09:28.29 ID:a2OTq4U90

>>152

今回のLora、テキストエンコーダー部分も
学習してちゃってるんでそのせいかなー多分
層別適用でOUT浅層だけ有効にするとか、
AdditionalNetworksで適用するならTEncを0にするとか
そんな感じで使えばマシにはなるんじゃないかと

167: 名無しのメタバースさん 2023/03/10(金) 02:23:02.35 ID:nvyYtSHt0

>>160

サンガツ
いずれにしろ神や
ほんまありがとうやで

156: 名無しのメタバースさん 2023/03/10(金) 01:56:06.36 ID:CJsYC6Wx0

>>136

マジ神
ちょうど線太いのどうにかしたくて
調べてるところだった
理想の効果だったわ

139: 名無しのメタバースさん 2023/03/10(金) 01:23:36.69 ID:XAZEPj0OM

マイナス適用もええ感じやな
いただくでサンガツ

162: 名無しのメタバースさん 2023/03/10(金) 02:11:37.91 ID:J7QZwKZE0

loraの適用強度で絵が変化するのは
最終的に探索する層が変化するから当たり前か
普段0.3~1ぐらいの範囲でやってたから
-5~5ぐらいの範囲で試すとかしなかったもんな
強度あげすぎると過学習の成果で全部崩れるから
5とかで生成するとかまず出来ないし
これはこれでおもしろいけど

164: 名無しのメタバースさん 2023/03/10(金) 02:13:01.61 ID:CcS+QoV20

0.6のつもりが6になってて
モザイクだらけとかやった人も少なくなかろう

175: 名無しのメタバースさん 2023/03/10(金) 02:45:00.25 ID:J7QZwKZE0

例の領域指定で再書き込みとか出来るやつだっけ
うまくできればお手々ガチャやりやすいってことかな
自環境だとうまく動かなかったから試してないけど…

609: 名無しのメタバースさん 2023/03/22(水) 00:36:50.25 ID:sD6oce0u0

LoRAは気になるものだけ厳選してダウンロードだけど、
とりあえず一度使ってみるなぁ。
自分の使うモデルでちゃんと表現されるか
確認する意味合いと、こんなのできたぞって
どこかにあげるまでをやっておくと
何のLoRA持ってたか覚えやすい。
使ってみて思うように活用できないなと思ったら削除してる。

614: 名無しのメタバースさん 2023/03/22(水) 00:50:12.30 ID:godHFNCB0

なんか今更なんやけど
キャラ再現loraをそれなりに作ってきて思うのは
NAIベースで学習したものをNAIで
出力してまともになったことがただの一度もないんよ
崩れたりして失敗かと思うけどなぜか7thanimeV3とか
AOM2とかで出力するとすごく良かったりする
結果に文句はないんやけどみんなもそんなもん?

616: 名無しのメタバースさん 2023/03/22(水) 00:53:05.95 ID:Cipcxhg80

>>614

違うかもしれないけどnaiは元々その2つに比べて
ネガプロとかプロをしっかり入れないと
綺麗に表示されないからネガ増やしてみたり
ネガtiやlora併用して見たらどうだろうか?
aom2とか7thanimeはプロもネガも少なくていい物が
出てきてた気がするから

620: 名無しのメタバースさん 2023/03/22(水) 01:11:16.57 ID:godHFNCB0

>>616

なるほどサンガツ
ちょっと試したけどあんまり変わらんかった
ちなみに7thAで学習して7thAで
出力してもやっぱりへなちょこやった
まあ実際うまくできてるからええか!雰囲気やな

627: 名無しのメタバースさん 2023/03/22(水) 01:32:31.04 ID:9/KgVUSfa

>>620

その場合元絵がへなちょこだったりしないか?
いやそうじゃないなら失礼な言い方でスマンやが
キャラ再現と言ってもクオリティも一緒に学習しちまうから、
学習モデルを元絵に近づけるように学習することになるでの

621: 名無しのメタバースさん 2023/03/22(水) 01:11:41.08 ID:ED+wFjhT0

>>614

NAIは構図と画風の自由度高い代わりに
細かく指定しないと
🎈クオリティばっかり出てくる

642: 名無しのメタバースさん 2023/03/22(水) 01:54:28.88 ID:godHFNCB0

>>621
>>627
ワイは徹底した原作至上主義やから
一応全ての元絵は厳選してるつもりなんやけどね…

元ネタ例
https://imgur.com/P9GMlLa.png
NAIで出したへなちょこ例
https://imgur.com/ZCSlpBS.png
同じプロンプトで7thAで出した
(ワイにとっての)合格例
https://imgur.com/qexfLfI.png

今試しに出してみたやつで
チェリーピッキングはしてないで
まあでもええんよ困っては無いんやすまんな…

644: 名無しのメタバースさん 2023/03/22(水) 01:57:49.16 ID:t7r7wj2M0

>>642

明らかに学習設定に問題アリやな

645: 名無しのメタバースさん 2023/03/22(水) 01:58:16.87 ID:bNH+o3xYM

>>642

学習素材の白抜きしたら解決するんちゃう?

650: 名無しのメタバースさん 2023/03/22(水) 02:09:58.64 ID:godHFNCB0

>>645

パラメータ的には普通やと思うんやけどね…
loconでdim64のalpha1or32、
1キャラで数十枚の場合は2000stepくらい、
複数キャラまとめての数百枚の場合は10000弱stepくらい、
しいて言えばtextencoderとu-netのlearning rateは設定してないな
30キャラくらい作っててどれも出来上がりには不満はないんよ
漫画の白黒コマのみで作ってもうまくいくし素朴な疑問というか

659: 名無しのメタバースさん 2023/03/22(水) 02:23:20.77 ID:t7r7wj2M0

>>650

まあこの出来で満足ならもう言うことはない

665: 名無しのメタバースさん 2023/03/22(水) 02:51:04.84 ID:godHFNCB0

>>659

はえー、みんな求めるレベル高いんやな
ワイはそこそこ似てて
squattingとcum on faceできたら満足なんよ
今お気に入りの画像貼ってどや?ってやろうとしてたけど
急に恥ずかしくなってきたからやめたわ危なかった
色々精進してみるサンガツ

705: 名無しのメタバースさん 2023/03/22(水) 03:55:29.60 ID:qP6+lG5T0

>>642

NAIでもとかにしてみたらええんちゃう

770: 名無しのメタバースさん 2023/03/22(水) 10:07:41.80 ID:gYdg7mTw0

遅レスやが、
俺も >>614 と全く同じ問題がずっと起こってて
これはもうそういうもんなんやと思いこんどったわ
他のニキ達のレス見ると、
改善の余地ありってことなんやろかな…
問題提起ありがとな

774: 名無しのメタバースさん 2023/03/22(水) 10:16:17.61 ID:lfgz8sPL0

>>770

モデルによって効き目が
全然違うのはまああるで
それに関してはモデル側の問題でもあるから
一概には言えない

806: 名無しのメタバースさん 2023/03/22(水) 11:57:26.81 ID:godHFNCB0

>>770

夜中ちょっと変なテンションで書いちゃって
見返すと恥ずかしいんやけど、
改めてワイの意見としてはこうやな
・「学習ベースモデルと出力モデルを合わせろ」
 という意見もあるが必ずしもそうではない
・出力の第一印象悪くてもlora強度や前のepoch使うと
 ばっちりになったりすることもある
・学習モデルとしてはNAIはおすすめ
・色移りや背景の幽霊は元素材の厳選で抑えられるから妥協するな

617: 名無しのメタバースさん 2023/03/22(水) 00:58:24.22 ID:Cipcxhg80

MultiDiffusion i2iで余りにも
いらない要素足すからcnも使って見たけど全然動かない
待ってればいいのかな?cn単体で使えたら、
MultiDiffusionの設定をしてcnに画像突っ込んで
両方オンにして実行でいいんだよね?

619: 名無しのメタバースさん 2023/03/22(水) 01:09:45.67 ID:wZVXQ8nQ0

>>617

その前にdenoising下げればいいんじゃないだろうか

635: 名無しのメタバースさん 2023/03/22(水) 01:42:00.27 ID:Cipcxhg80

>>619

denoisingは0.5なんですけど腕が変わっちゃったりして
出した後に簡単に修正できる方法があればいいんですが
数十分かかるから失敗すると辛いw

640: 名無しのメタバースさん 2023/03/22(水) 01:49:07.53 ID:bNH+o3xYM

>>635

元の画像どんなやつなん?
元々2人くらいならi2iしても人増えんかったよ

656: 名無しのメタバースさん 2023/03/22(水) 02:19:05.40 ID:Cipcxhg80

>>640

ちょっとサイズ大きいけど元絵はlora使って
MultiDiffusionはloraとかの
設定なしでクオリティとネガだけです
背景と腕が変わってたりして大きくして
書き込みだけ増やしてくれたらいいだけなのですが
上が通常下がhttps://i.imgur.com/xczajfQ.pngです

腕が機械に
https://i.imgur.com/5TTIfrB.png
https://i.imgur.com/CahkEy3.jpg
背景が異次元に
https://i.imgur.com/xczajfQ.png
https://i.imgur.com/8rSpdsH.jpg

658: 名無しのメタバースさん 2023/03/22(水) 02:20:53.10 ID:Cipcxhg80

>>656

>上が通常下がhttps //i.imgur.com/xczajfQ.pngです
文章間違えた下がMultiDiffusionですw

それとこれが最初に失敗したプロに
キャラ精製が入っちゃって
背景に一杯出てきたやつですw
https://i.imgur.com/I8jzHsZ.png
https://i.imgur.com/iaRjpRt.jpg

802: 名無しのメタバースさん 2023/03/22(水) 11:45:08.40 ID:oDPGIaZF0

>>656

サンガツ
majinaiにpromptやらの情報込で上げてくれたら
今夜にでもワイもi2iやってみたいわ

引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1678367246/
https://nozomi.2ch.sc/test/read.cgi/liveuranus/1679326948/
_________________________________________________________________________________