1: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
Vicunaつよい
— t.toda (@Trtd6Trtd) March 31, 2023
最近LLM色々出てるけど、今の所一番いい感じの受け答えができる印象https://t.co/cD5Hf9CZjn
LLaMAベースのFine tuned modelが連日出てる印象ですがスタンフォードのAlpacaより良くてChat-GPT4に90%くらい近いと謳うVicunaが出てきましたね。なかなか良さそう。 https://t.co/72cCbiiT1i pic.twitter.com/KR6CHlDtea
— søκ𝄆⊂h𝄇 (@PlanetLambda) March 31, 2023
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
Vicuna-13Bがすごい🔥
— Sir.AI - AI作ったり使ったり (@sir__AI) March 31, 2023
「ShareGPT」というChatGPTの拡張機能のデータに基づいて、
LLaMAをベースにFineTuningして作られたオープンソースのLLM!
Alpaca 7Bなど他のオープンソースのLLMよりも高いパフォーマンスを発揮し、
ChatGPT/Bardにも匹敵するとのこと!
トレーニングコストは、300ドル!👀 https://t.co/yvKzjyIzvQ
Vicuna-13bの性能がちょっと高そうだぞ。そこそこの会話ができそう。 pic.twitter.com/qAm6rPmZMQ
— あるふ (@alfredplpl) March 31, 2023
Vicunaのでも結構いいんだけどローカルで起動するための重み公開まだしてないから言うほどGitHub意味なくね
— なまあげ (@Viraen_) April 1, 2023
Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality | by the Team with members from UC Berkeley, CMU, Stanford, and UC San Diego
— Satoshi TAKAHASHI (@s_s_satoc) April 1, 2023
また、試さんといかん案件w https://t.co/JsGQPVn9ls
vicuna、相当性能よくないか?
— matorix (@maTORIxmatrix) April 1, 2023
vicunaでも割と精度出るな…
— lempiji@思秋期 (@lempiji) March 31, 2023
4: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
Vicuna-13B
— ton (@ton960) March 31, 2023
ん~。https://t.co/6CVJgLUPVi
Vicuna-13B 90%もない気がする
— sinc (@450450) March 31, 2023
会話が不自然、demoだと性能ひくいのかな pic.twitter.com/9REalXIw0P
あ、vicunaはさらにファインチューニングしたやつってことなのかな?
— ひん (@thamurian) March 31, 2023
Vicuna、webインターフェースで動かしたときと答え全然違うな、モデルが違う?なんかレスポンス異常に速いし pic.twitter.com/Wf19a02zbH
— ひん (@thamurian) March 31, 2023
Vicuna-13B やばない?これでローカルの自分専用チャット AI 使役できるね。Bing AI は速度が遅いのとカスタマイズができないのがネックだったね。
— 白滝 (@seidoutakizawa3) March 31, 2023
vicuna-13bくんさぁ pic.twitter.com/mrelbFBFcZ
— 🍮 (@4021iaduy) March 31, 2023
5: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
Vicuna-13B良さそうだけどローカル構築はないのかしら?
— 鐵火卷8号🍣バーチャル一般人 (@Kurogane_8_Gk) March 31, 2023
あとVicuna-13bやばすぎ
— てんのすけ (@Meteor_Eternal) March 31, 2023
賢すぎて中身GPT3.5なんじゃないかと疑う
Vicunaよさげだけど、これローカルで動かすにはどれくらいスペックが必要なのかな。
— まつど (@matsudotsuyoshi) April 1, 2023
こんなに軽量なモデルでも追加学習に200万のGPU8枚なのかぁ。
— sylk (@sylk_jigglypuff) March 31, 2023
モデルがオープンソースでも実質fine tuningは無理そうだから勉強用に読むか https://t.co/1iZCApXaUr
と思ったら学習にはA100を8枚使ったけど減らせるよだった
— sylk (@sylk_jigglypuff) March 31, 2023
Vicuna-13B、日本語でもそこそこ強い
— 刈宮 宥 (@Callimiya) March 31, 2023
もうオープンソースモデルでこのレベルまで来たか・・・ https://t.co/soIVmHj0be pic.twitter.com/4GO1gtwE6u
すご!13Bでこの回答できるんだ。 https://t.co/vWtJuRFGFK
— Shinji Yamada (@santa128bit) March 31, 2023
_________________________________________________________________________________
コメントする