58: 名無しのメタバースさん 2023/02/04(土) 12:43:07.82 ID:PUnQg+5S0
loraのマルゼンスキームに関する検証
画像素材はいつものhttps://i.imgur.com/6SJDBDQ.jpeg
今回は「face」だけタグ付けしたパターンと、
「sls」というオリジナルタグだけ付けた場合の
2パターンで横顔出力してみる
画像出力は正面と横顔、loraの強度1と0.6の計4パターン
・faceだけタグ付けした方で1girl,faceで画像生成
https://i.imgur.com/jW5sRaO.png
・slsだけタグ付けした方で1girl,slsで画像生成
https://i.imgur.com/2LLYfKr.png
slsというオリジナルタグだけでも
ちゃんと頭部として学習してくれたし横顔も生成できた
ただし、両方とも横顔は頭部のアクセサリーが消失
アクセサリーもタグ付けすればある程度消失を防げる
https://i.imgur.com/82zDHw2.png
61: 名無しのメタバースさん 2023/02/04(土) 12:48:07.49 ID:itydfEjDa
>>58
プロンプトのslsの有無や強度で
再現性はどう変わるやか
前スレの最後でそれあまり影響ないんではと
気にしていたんや
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
>>61
強度上げたらそのタグに紐づいている特徴が
強調されるかも?って程度やな
https://i.imgur.com/bE2ErTj.png
slsの有無に関してはタグの存在そのものよりも
どの画像にどのタグを紐づけて
どのように特徴を学ばせるかが大事やから
また時間あるときにいくつか試してみるわ
75: 名無しのメタバースさん 2023/02/04(土) 13:13:29.89 ID:itydfEjDa
>>70
サンクス
ワイ作のやとタグ消しても
誤差レベルな状態になってたからな…
オリジナルタグ効果あるんかって気になっただけや
ていうか色々LoRA拾って
自分で確認してみたほうが早いかスマン
83: 名無しのメタバースさん 2023/02/04(土) 13:22:43.08 ID:PUnQg+5S0
>>75
拾ってきたloraよりも
自分で色々なパターンのlora作って試した方が捗るで
拾ってきたloraってどういう学習素材を用意して、
それぞれにどうタグ付けしてるかわからんからな
例えば、全身絵、
首から上、首から下の3種類の素材用意して、
全身絵はsls,tlt,ulu、
首から上はsls,tlt、首から下はsls,uluみたいにタグ付けして
画像生成する際にslsやtltだけで出力とか、
sls,tltやtlt,uluの2つだけで出力したりして
効果を試してみるんや
11: 名無しのメタバースさん 2023/02/04(土) 11:18:38.77 ID:ASZV0ms60
サンイチ
https://i.imgur.com/dyFgnX7.jpg
33: 名無しのメタバースさん 2023/02/04(土) 11:43:23.24 ID:giRSU54Z0
>>11
背景との混ざりめちゃええな
プロンプト頼む
92: 名無しのメタバースさん 2023/02/04(土) 13:59:16.38 ID:ASZV0ms60
>>33
自作のLora使っとるから再現は難しいかもしれん
https://majinai.art/i/mclmP4p.png
15: 名無しのメタバースさん 2023/02/04(土) 11:23:35.19 ID:Qgk5nqaX0
マジナイは Prompt が空で
Negative Prompt だけで生成した画像の詳細が
ちゃんと表示されるようにしてほしいわね
26: 名無しのメタバースさん 2023/02/04(土) 11:34:33.23 ID:u9SulSL10
ファインチューニング先進国が
どこなのかというどうでもいい疑問
40: 名無しのメタバースさん 2023/02/04(土) 11:50:50.14 ID:K3KkN6IT0
タックス君LoRAが待たれている
780: 名無しのメタバースさん 2023/02/05(日) 16:37:40.58 ID:a+lzEQrzx
>>40
とりあえず鯖だけ立ててみたで
年度末で忙しいから余裕ができたら
整備とかすると思う
興味ある人おったらとりあえず入っておいてや
NVA部リアル専 https://discord.gg/bwNfws9J
785: 名無しのメタバースさん 2023/02/05(日) 16:43:21.93 ID:y3nd+xMT0
>>780
自分にお礼言ってた
おおきに教えてくれて!!
45: 名無しのメタバースさん 2023/02/04(土) 12:02:58.86 ID:1kJeR2r70
なんか変な塗りになるなと思ったら
NAIで学習するつもりがAbyssで学習してた…
46: 名無しのメタバースさん 2023/02/04(土) 12:07:14.51 ID:6uOO6Dvw0
>>45
言うてモデルとか関係なく学習素材の塗りにならん?
48: 名無しのメタバースさん 2023/02/04(土) 12:12:12.25 ID:ajMtlMEf0
学習素材の塗りに引っ張られるな
繊細さを出そうにも学習元がふんわりした塗りが
多いとそうなってしまう感じやわ
https://imgur.com/a/6cRq8yv.png
52: 名無しのメタバースさん 2023/02/04(土) 12:34:02.18 ID:dO+JGXsdM
実写loraってどのモデルがいいんや
basilはなんか違う感じになってしまう
NAIだとイラスト臭が抜けない
96: 名無しのメタバースさん 2023/02/04(土) 14:03:57.22 ID:8H2J6pJA0
>>52
ギャー人はAOM2_hard基準が多い
55: 名無しのメタバースさん 2023/02/04(土) 12:40:11.29 ID:6rWjv9TM0
paperspaceのM4000で
sd-scriptsのLoRA学習を
WebUI extensionsではなく
CLIでスクリプト起動で動かせている人いる?
rentry.co/paperspace_de_xformers を
参考に設定してCLIで試してるんだけど
--xformersつけると
RuntimeError: CUDA error: no kernel image
is available for execution on the device
でエラー終了してしまうし、つけないと
RuntimeError: CUDA out of memory. でエラー終了。
上記rentryの記事はWebUIの
extensionsの方の設定方法なんだっけ?
その割にはWebUI用のvenvをactivateしてないようだし
よくわからない……
60: 名無しのメタバースさん 2023/02/04(土) 12:46:52.78 ID:9eGQ8htG0
>>55
ワイはそのrentryのやつを
としあきwikiの奴組み合わせてアレンジしたら
ターミナルでxformers起動できてる
84: 名無しのメタバースさん 2023/02/04(土) 13:25:29.75 ID:6rWjv9TM0
>>60 >>79 ありがとう、あとで試してみます
406: 名無しのメタバースさん 2023/02/05(日) 00:19:09.87 ID:a5NiN0NE0
>>84
色々試したけどまだsd-scriptsの
スクリプト直接起動がうまくいかない
pipでパッケージ入れ損なっているか、
今の環境で使えないオプションを
指定しちゃっているかなんだろうけどまだ追求してない
いっぽうWebUI extensionの方を試したら
学習成功したのでとりあえずそちらで勉強してみる
背景そのまま切り抜かずに訓練画像ぶち込んでも
それなりに画風覚えてくれるのすごいな
79: 名無しのメタバースさん 2023/02/04(土) 13:15:21.19 ID:cf115wXk0
>>55
no kernelのエラーは8bit adamのオプションを
falseにしたら(ワイは)治ったよ
64: 名無しのメタバースさん 2023/02/04(土) 12:52:42.54 ID:JiqWvHxha
白服マカたそでやっと成功体験を得られた
次は黒服を出せるように学習するゾ😠
https://i.imgur.com/iVwGhl5.png
https://i.imgur.com/48v6iRx.png
https://i.imgur.com/dx6xnw1.png
736: 名無しのメタバースさん 2023/02/05(日) 15:30:49.62 ID:GDwPBITg0
全世界で同時並行で
LoRA学習進んでるのしゅごいやね
いろんな設定見られて面白いわ。
ちな4chanリリニキの設定はこれやった。
こんな設定見たことないで
>>97 images、>~16 repeats、>learning_rate = 16e-5
>train_batch_size = 2
>text_encoder_lr=3e-5、>unet_lr=16e-5、
>num_epochs = 7、>save_every_n_epochs=1
>scheduler="cosine_with_restarts"
>network_dim=64、>alpha_dim=32
>resolution=768
745: 名無しのメタバースさん 2023/02/05(日) 15:43:46.88 ID:fXkmF9bVr
>>736
これはtext部分だけ追加学習とかなのかな
747: 名無しのメタバースさん 2023/02/05(日) 15:45:52.86 ID:6gRanTWQ0
>>745
textencoderは学習で
そんないじらんでも良くて
同じLRでやるとすぐ過学習して
プロンプトへの応答が変になるからって
最初から下げてる奴多いで
750: 名無しのメタバースさん 2023/02/05(日) 15:48:47.62 ID:fXkmF9bVr
>>747
>>747
いや、それは知ってるけど、
unet 16e-5とか下げてるから
unet学習させない強い意志を感じるやん
描画は良くて、テキスト部分で変わる
詳細なおしたかったのかなーと
756: 名無しのメタバースさん 2023/02/05(日) 15:55:29.33 ID:6gRanTWQ0
>>750
16e-5って0.00016やぞ
3e-5は0.00003や
textの方が低いしunetとしても
そんな低い値でもない
791: 名無しのメタバースさん 2023/02/05(日) 16:58:46.60 ID:fXkmF9bVr
>>756
うお、たしかに。なんか勘違いスマヌ
86: 名無しのメタバースさん 2023/02/04(土) 13:37:15.99 ID:iudAxYZ2a
LoRA手探りでやってみとるんやが
学習用素材フォルダ名に指定する
繰り返し回数とエポック数ってなんか違いあるんか?
繰り返し1で20エポックと繰り返し4のエポック5やと
なんか出力結果ちゃうんかなと思うて
87: 名無しのメタバースさん 2023/02/04(土) 13:38:23.13 ID:TaVbfwJK0
やっぱアニメキャプは同じ素材元という
強みが活かされてええなあ
91: 名無しのメタバースさん 2023/02/04(土) 13:56:17.23 ID:ASZV0ms60
やっとLora少しわかってきたきた気がする
https://i.imgur.com/s18ccaP.jpg
262: 名無しのメタバースさん 2023/02/04(土) 19:47:03.06 ID:qDkHmf7W0
>>91
こういうセミリアルな感じめーちゃ好みや
どういう素材で学習させてる?
93: 名無しのメタバースさん 2023/02/04(土) 14:02:30.84 ID:MHAROFsWa
LoRAで特定の背景が出やすいの見ると
背景用LoRAも作れるんやろな
105: 名無しのメタバースさん 2023/02/04(土) 14:21:21.21 ID:bF/QTo5J0
昨日はじめてLora導入してなんとか
学習できてウキウキして違うの学習させたら
それ読み込んでもなんも変化がおこらん
何が変わってもうたんや
106: 名無しのメタバースさん 2023/02/04(土) 14:25:52.39 ID:SJg9PJCl0
タグ付けし直して気になったんだけど
text単体のDanbooruタグって存在しない?
文字入りは全部textに統一しようと
思ってたんだけど学習してくれるかな
108: 名無しのメタバースさん 2023/02/04(土) 14:38:22.69 ID:jYifsnwK0
適当に学習画像だけ用意して
タグ付けしてついにlora初学習開始よー
うちの3060で学習画像82枚、繰り返し20、
バッチ4で1epoch 8分半やった
110: 名無しのメタバースさん 2023/02/04(土) 14:47:23.98 ID:tawuPnRLM
ちょっと前まで指ぐちゃぐちゃで当たり前だったのに
最近は画像が綺麗で当たり前なの恐ろしいわ
今や階層マージは当たり前だしそろそろ
LoRA に手を出さないと付いていけなくなるんかな
115: 名無しのメタバースさん 2023/02/04(土) 14:52:46.10 ID:hD+2grMc0
Lora学習出来れば捗るのは間違いないけど、
ニッチじゃなければ人が作ったのを使えるレベルで十分だね
俺は学習好きだから学習させてるけど
Loraも使い方や組み合わせで真価出すことあるのも楽しい
引用元:https://nozomi.2ch.sc/test/read.cgi/liveuranus/1675476156/
_________________________________________________________________________________
コメントする