1: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
スマホで“1.8秒” テキストから高速で画像を生成するAI「SnapFusion」 Stable Diffusionと同等の画質 https://t.co/rwguxPkqni iPhone 14 Proでテキストプロンプトから1.84秒で画像(512×512)を生成する拡散モデル。Stable Diffusion v1.5と同等の画質。 pic.twitter.com/vft2CohA9p
— Seamless (@shiropen2) June 7, 2023
タイトル:SnapFusion:2秒以内でのモバイルデバイス上のテキストから画像への拡散モデル
— AI論文Bot (@AiRonbun) June 2, 2023
要約:
- テキストから画像への拡散モデルは、プロの芸術家や写真家の作品に匹敵する見事な画像を自然言語の説明から生成できます。
-しかし、これらのモデルは大きく、#AI
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
複雑なネットワークアーキテクチャや数十のノイズ除去繰り返しを含んでいるため、計算リソースが多くかかります。
— AI論文Bot (@AiRonbun) June 2, 2023
- この問題を克服するため、ステップ蒸留と効率的なネットワークアーキテクチャを導入し、モバイルデバイス上でテキストから画像への拡散モデルを2秒以内に実行#AI
できるようにしました。
— AI論文Bot (@AiRonbun) June 2, 2023
- 提案されたアプローチでは、8ステップのモデルが、50ステップの比較モデルよりも優れたFIDとCLIPスコアを持つことが実験的に示されています。
- 結果として、SnapFusionは、ユーザーに強力なテキストから画像への拡散モデルを#AI
提供することにより、コンテンツの作成を民主化します。#AI
— AI論文Bot (@AiRonbun) June 2, 2023
詳しい内容は下記リンクからご確認ください。https://t.co/fSiuo6E0go
— AI論文Bot (@AiRonbun) June 2, 2023
4: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
画像内のオブジェクト識別モデル『HQ-SAM』が登場
— 木内翔大|AI時代に乗り遅れない為の必見情報を毎日配信📣 (@shota7180) June 7, 2023
Metaが開発したモデル『SAM』をよりアップグレードしたもので
その精度がすごい👇👇
より細かい部分も高精度で識別・分離可能で
初見の画像でも全然いけるらしい... pic.twitter.com/0fLf7B092V
上)従来モデル『SAM』
— 木内翔大|AI時代に乗り遅れない為の必見情報を毎日配信📣 (@shota7180) June 7, 2023
下)新モデル『HQ-SAM』
赤枠内を見ると、細かい部分(動物の細長い手足、イヤホン...etc)もきちんと識別されていることがわかります
医療の現場で腫瘍などの発見に用いたり、歩行者識別のために自動運転に取り入れたりなど、
様々な分野に応用できそうすね pic.twitter.com/QwSqowsFWq
詳細はこちらから
— 木内翔大|AI時代に乗り遅れない為の必見情報を毎日配信📣 (@shota7180) June 7, 2023
🔗 - Segment Anything in High Qualityhttps://t.co/3rWBkbd1LD"
画像生成AIで「LoRAを階層マージして自分の独自checkpointを作る」とか「ControlNetを駆使して実写映像をアニメ化する」とかやっているレベルの人なら、AIはPhotoshopやblenderに次ぐ「新しい創作ツール」だ……という感覚に納得できると思う。けれど、
— Rootport💰🍹🍑 (@rootport) June 7, 2023
そこまでAI沼に浸かっていない世間一般の認識は「馬に乗った宇宙飛行士と命じたら馬に乗った宇宙飛行士が描けた」という単純なtxt2imgの技術のレベルで止まっているんじゃないか。AIで画像を生成するのは、海辺で綺麗な流木を探すのと同じようなもの。創作活動とは呼べない……という感覚。
— Rootport💰🍹🍑 (@rootport) June 7, 2023
AIを実際に触っていない人が、外からのイメージでそういう感覚を持ってしまうのも無理はないと思う。ネットに流れてくるニュースだけでは、「新しい創作ツール」とは呼べないという感覚になるはずだ。
— Rootport💰🍹🍑 (@rootport) June 7, 2023
5: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
ちなみにPixivで検索すると、AI生成画像は山ほど存在するのに「特定のキャラのNL/BL/GLの二次創作」をAIで行ったものは極端に少ない。「望みのキャラクター複数人を1枚の画像に収めること」が、わりと難しいからだ。AI術師の皆様には、ぜひ挑戦してみて欲しい。
— Rootport💰🍹🍑 (@rootport) June 7, 2023
私は書籍化経験のあるブロガーであり、多言語に翻訳された著作のある作家です。翻訳AIや大規模言語モデルに、私の書いた文章が「無断学習」されている可能性はゼロではありません。この件について、私は当事者の一人だと思っています。
— Rootport💰🍹🍑 (@rootport) June 7, 2023
ネット上には画像生成AIについて様々な意見が飛び交っています。しかし、「画像生成AI」を「翻訳AI」や「ChatGPT」に、「イラスト」を「テキスト」に置き換えてみてください。それでも説得力を失わない意見であれば、耳を傾ける価値があると思います。
— Rootport💰🍹🍑 (@rootport) June 7, 2023
(※少なくとも、その意見の発言者が翻訳AIや大規模言語モデルを利用しているのであれば)
— Rootport💰🍹🍑 (@rootport) June 7, 2023
「イラストとテキストは別だ」という意見もあるでしょう。この意見そのものが、「立場を逆にしてみるテスト」を突破できないと思います。想像してください。もしも「テキストの著作権は絶対に守るべきだが、イラストの著作権などどうでもいい」と主張している作家がいたら、どう感じるでしょうか?
— Rootport💰🍹🍑 (@rootport) June 7, 2023
私はイラストもテキストも、世の中の役に立つ範囲内で、著作権が尊重されるべきだと思っています。
— Rootport💰🍹🍑 (@rootport) June 7, 2023
1: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
PhotoshopでもBlenderでも著作権保護された画像でフォトバッシュ加工したら原型留めてなくてもアウトだろ
— ラマラマ (@LLaMa_mech) June 7, 2023
まだこの認識なのかよ https://t.co/GQdR6GSG2r
まさにこれ。深く学んだ者とそうでない者の差が開いていており"評論家"が大量発生している。
— さとり (@satori_sz9) June 7, 2023
画期的なツールとして「使いこなす必要がある」と理解できている人には明るい未来が待っているが、ただ批判するだけの人はこれから先の世の流れがより理解できなくなり、かなり厳しくなると思う。… https://t.co/LtKPWE95Nd
仮に”学習データが完全にクリーン“で、今と同じ性能のAIのAIが出たら非難は止むかというと絶対に止まないわけで。クリエイターという職業を代替しかねないというのが問題の核心なわけですよ。
— 積雲 (@sekiun_creation) June 7, 2023
「AI使ってるから努力してない」っての、まあまあ酷い偏見だとは思いますね。
— 積雲 (@sekiun_creation) June 7, 2023
画像生成AIのあれこれ、『俺より上手い絵をポンと描く技術、普及したら食い扶持なくなるから助けてくれ』ということに行き着く問題なので、こういう主張なら乗れる。
— 積雲 (@sekiun_creation) June 7, 2023
法律で認められているものに「違法」「脱法」「無断」「窃盗」などとレッテルを貼って、倫理的糾弾していては、結局「どうやってクリエイターを経済的に保護するか」という1番大事なところにいつまでも行きつかないので建設的ではないよね
— 積雲 (@sekiun_creation) June 7, 2023
_________________________________________________________________________________
コメントする