1: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
Alpacaデータで学習されたRWKVのデモ。この速さは反則でしょ!!😂https://t.co/4MBOvpltIp
— クニえもん.inc🤗 (@kun1em0n) March 27, 2023
まだコーディングはできない?websocket実装しろと言ったら説明だけ出てきた https://t.co/aJBsgt4WRz pic.twitter.com/Es6WLd5Qal
— bambi (@bambii0927) March 27, 2023
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
すごい。早すぎてちゃんと入力できてないと思ったわ https://t.co/qEVLktrFw0
— sonesuke (@sonesuke) March 27, 2023
あ、来た
— kitta (@kitta_orz) March 27, 2023
AlpacaデータのRWKV https://t.co/gluaGxqDRI
RWKVのLoRAのコードも探したら普通にあった。日本語Alpacaデータでファインチューニングしてみたいけどコードにどういうフォーマットでデータを渡せばいいのか不明....🤔https://t.co/0krfskYiDn https://t.co/d0Llt6xAvq
— クニえもん.inc🤗 (@kun1em0n) March 27, 2023
RWKVってApacheライセンスなのね。これを日本語でチューンしたら今度こそ本命かも。高速、省メモリ、長コンテキストで弱点を感じない →RT
— うみゆき@AI研究 (@umiyuki_ai) March 27, 2023
日本語AlpacaデータでJapanese-Alpaca-LoRAを作成した話を記事にしました!デモページもあります。よろしくお願いします!(なお、noteでのサポートも絶賛受け付けています🙇♂️)https://t.co/1VVRjI73RE
— クニえもん.inc🤗 (@kun1em0n) March 26, 2023
4: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
RWKVにAlpacaデータ食わせたRavenかあ。とりままどマギで一番可愛いキャラ訊いてみたら、杏子ちゃんだって。なかなかやるじゃない。説明はちょっと違う気がするけど →RT pic.twitter.com/yu38ExuyEm
— うみゆき@AI研究 (@umiyuki_ai) March 27, 2023
RWKV + Alpaca の Raven 試してみたけど、富士山の概念ごちゃ混ぜで笑う(でも日本語は全然正しいのですごいな)https://t.co/81IteRIVdc pic.twitter.com/ytbMTqqP3A
— Torishima (@izutorishima) March 27, 2023
Google Colab で RWKV を試す|npaka @npaka123 #note https://t.co/IVAPsnP03a
— 布留川英一 / Hidekazu Furukawa (@npaka123) March 27, 2023
参考情報ありがとうございます!
— Prompt Engineering Lab (プロンプトエンジニアリング研究所) (@PromptEngLab) March 27, 2023
strategyを調整することで、14Bモデルをハイメモリー(51GB)&標準GPU(Tesla T4)でも動作することを確認しました。https://t.co/WDp3p49A2d
むっちゃ簡単に、手取り足取り。一気に来たなぁ / “Google Colab で RWKV を試す|npaka|note” https://t.co/Q7Kskk0VRn
— Masanori Kusunoki / 楠 正憲 (@masanork) March 27, 2023
RWKV 7B(14 GB) が RX6800 で動いてええ感じにチャット反応速度速くて勝てました✌️2018 年から見届けてきた ROCm pytorch ちゃん, シッカリと成長しており偉い!(後方彼氏面🧑🌾) > pytorch2 + ROCm で RWKV(LLM Chatbot) と Wisper 動作確認メモ https://t.co/WT1vqQBPjl
— syoyo.eth 🌸 レイトラ ® 🐯 4 周年 🎉 (@syoyo) March 27, 2023
5: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
@shi3z さんのYoutubeを見てChatRWKVをローカルで動かしてみた。モデルはRWKV-4-Pile-7B。RTX3090で日本語回答がどんどん出てくる!!VRAM消費は約15GBでした。賢くなるのは時間の問題ですね。めっちゃおもろい!!! pic.twitter.com/wqTRVo1TfM
— 三上典秀 (@mikami_robot) March 27, 2023
RWKVが出てきたときにも言ったけど、やっと遊び倒せそうな言語モデルが出てきてうれしい。
— 天紗愛 (@Ai_tensa) March 27, 2023
RWKVはApache2.0なので、StableDIffusionと違って真にオープン。
昨日はGen1とかRWKVとかの話題はたくさんだったけどChatGPT使ってのおもしろ系の話は減った気がした。そろそろ皆んな実装側に移った?(プレスリリースは連日バンバン出てる)
— akiaki5516 (@doradora09) March 27, 2023
ヤバい!新しい大規模言語モデルRWKVが公開された!
— けいすけ / kei31.eth (@kei31) March 27, 2023
✅️ RNNよりも計算量が少なく、3GBのVRAMでも動く!
✅️ 完全にフリーで民主化された!
✅️ ただ、モデルのダウンロードには注意が必要!
ヤバい!RWKVの登場で言語処理が大きく変わる!https://t.co/1xk9C3EaEb
ColabでRWKV動いた。ローカルで動かしてみたい欲出てきた。
— ヒ (@mlJgMhAg2ZeWYMz) March 27, 2023
モデルは一番重いのより一つ軽いやつ(rwkv-4-pile-7b)で、VRAMはだいたい8GBくらい使ってたので10GBあるグラボならいけそう
— ぽり (@poricca4v4) March 27, 2023
言語モデルにもweb ui的なのあるんやな。RWKVってやつ試そう
— DSK_Crypto🐶だいすけ(11)₿ (@dskdogs) March 27, 2023
ChatGPT終了のお知らせ!?完全無料&オープン爆速大規模自然言語モデルRWKVが爆誕https://t.co/sFUyHdyqdC
— taiti.com (@TaitiCom) March 27, 2023
あの画像生成AIのStable Diffusionを開発したStabilityAIが関わっている模様。
ChatGPTのように、パラメータ数を増やせば比例して性能もドンドン上がっていくような性質なら期待大ですね。 https://t.co/S71VwNnSPL
_________________________________________________________________________________
コメントする