1: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
【速報】Stability AIはClipdropの新機能『Stable Diffusion Reimagine』を発表しました。
— Stability AI 日本公式 (@StabilityAI_JP) March 17, 2023
これは一枚の画像から、類似する画像を無限に生成出来るという機能です。
この技術は今後オープンソースになる予定です。
プレスリリース:https://t.co/NiiLvBdlgx
ツール:https://t.co/vujK8hnr0c pic.twitter.com/a6ize5Gdyx
ClipdropはAI画像ツールのプラットフォームです。
— Stability AI 日本公式 (@StabilityAI_JP) March 17, 2023
試してみたい方はこちらから、お試し下さい。https://t.co/vujK8hnr0c
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
これは凄すぎる。クオリティも高すぎ!
— マイク@AITech.Lab/ChatGPT研究 (@AITech_Lab) March 17, 2023
早速自分のアイコンで試したけど、クオリティ高いわ。
これはまたすごい技術が…
— ざ_な_く&890P@eR (@z_n_c_890_P) March 17, 2023
初期の『Stable Diffusion』から考えると、すでに隔世の感がある…やはり新しい技術は使われて初めて進化が促される… https://t.co/aG4t5xKQhi
教師データ作成が捗りそう(果たして使えるのか、誰か試してー、、 https://t.co/ykrWYmwYbM
— たなこう (@octobersky_031) March 17, 2023
ゲーム系の画像をぶちこんでみたが、まだ非実写のデータセットが入ってないのかあんまり満足するものではなかった。
— 三上航人@CharacterBank (@_cbNand) March 17, 2023
しかし、実写系のはこれすごいな・・・・ https://t.co/Yi1MhEHjc8
またすごいもんがでてきちまったな。。 https://t.co/i2HfSggsnT
— Metamon☆ (@tenrankainoe0) March 17, 2023
おい、マジか... https://t.co/3E1ZCLhpEH
— おーば (@obashun22) March 17, 2023
4: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
Demoで遊べるよ👇https://t.co/BpOQ1YVqAh
— しょーてぃー / UX Designer&AI Prompt Designer (@shoty_k2) March 17, 2023
全処理がブラウザーの中で完結するWeb Stable Diffusion https://t.co/LGh2hhmEwb
— Kenji Iguchi (@needle) March 17, 2023
デモページ https://t.co/USw0Boe8Ct をRyzen 3700X + RTX3090機で試したところ、最初の1回目はモデルダウンロードしたりで3分近くかかったけど、2回目以降は20stepで6秒。 pic.twitter.com/dd8Y6AICKO
— Kenji Iguchi (@needle) March 17, 2023
しかし2GB近くのモデルをまるごとダウンロードするので当然ながらローカルストレージの消費がすごい。 pic.twitter.com/g49TNTbF8J
— Kenji Iguchi (@needle) March 17, 2023
僕も後で試そう https://t.co/yFRCxkMqqj
— John K.Happy (@manjiroukeigo) March 17, 2023
Chrome Canary(テスト版のChrome)でアクセスしたらブラウザのみでなんの追加インストールもなくStable Diffusionが動いた!!! しゅごい。会社の事務用PC(i7-8565U)で動かしたので1枚出すのに1072秒(約18分)かかりましたが。WebGPUで動いてるので、高速なGPU積んでるマシンならまともに動きそう https://t.co/meYLZeVhiO pic.twitter.com/vV6FataAdv
— 松xR (@matsu_vr) March 17, 2023
stable diffusion, 実際に家の GPU でガンガン回してみた
— Yuto Nishimura (@yuto_v2_nissy) March 17, 2023
これは,,,モデルごとにプロンプト変えないといけなさそう & ガチャガチャ感強い
さすがに絵師さんの方がまだまだすごいなと思う一方,これが GPT とくっついたら話は変わってくるという感じ
5: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
Stable Diffusionを使った写真修復がすごいhttps://t.co/MvOMiWegpn pic.twitter.com/9CzdQE6uol
— やまかず (@Yamkaz) March 16, 2023
女性の服と男性の眉毛の感じが全然違う。すごいな。 https://t.co/mG3zn62GSH
— genbu (@GenbuSosgenbu) March 17, 2023
Stable Diffusion Reimagineってのがあるのか。面白そうだなもう使えるなら使ってみよう
— たく (@koki_1157) March 17, 2023
元画像からプロンプトなしでバリエーション派生をする新しい"Stable Diffusion Reimagine"が登場する模様
— Sinori Ai研究部 / Sinori Ai (@Sinori_AI) March 17, 2023
少し前に買収したばかりのclipdropの技術を使っているとのことでめちゃくちゃ動きが動きが速い#StableDiffusion #clipdrop https://t.co/v0lnHqD86x
stable diffusionをwikiみながら使ってるがなかなか知識おおい
— かぜよる (@kazeyoru69) March 17, 2023
Stable Diffusionめっちゃ進化してる。
— e1ght3 (@e1ght3) March 17, 2023
正直もっと時間かかるかと思ったけど、有志が記事を書いてくれたおかげでサクッと導入出来た。
プロンプト生成術を覚えればキャラデザイン考案とかコンセプトアート作成なんかもサクサクローカルで動かせそう。https://t.co/1yJIcPiZFV
_________________________________________________________________________________
コメントする