1: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
LLaMAが4chanにリークされた…ってこと…?
— 高杉 光一🦋 @14:59 (@kuronagirai) March 6, 2023
英語だからよく分からない…
一部なのか全体なのか… https://t.co/L459jNlkhS
えっ…マジモンなの…!? https://t.co/e8X4C1E5rs
— 高杉 光一🦋 @14:59 (@kuronagirai) March 6, 2023
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
みたいですね…
— 高杉 光一🦋 @14:59 (@kuronagirai) March 6, 2023
GIGAZINEも報じましたし
ことの大きさの割には反響がまるでないのでなんでだろとは思ってましたが…
動かせる環境を持っている人が少ないとか?
— maple_syrup🎨 (@maples_syrup) March 6, 2023
NAIリークの場合は流出直後にwebui対応されていたのがここまで拡散された理由の一つかも
可能性はありますね
— 高杉 光一🦋 @14:59 (@kuronagirai) March 6, 2023
あとはChatGPTで事足りる人が多かったのもあるかも
LLaMAがNAIみたいに流出してて草
— forasteran (@forasteran) March 6, 2023
3月3日、4chanでLLaMAのモデルがリークw
→GitHubのLLaMAリポジトリで、4chanで公開されたBitTorrentのマグネットリンク追加がプルリクww
Metaの大規模言語モデル「LLaMA-65B」のデータが4chanで流出https://t.co/ko7sMyqmgM
GPTQ論文の手法でLLaMAちゃんのモデルを4ビット量子化で軽くするやつ
— forasteran (@forasteran) March 6, 2023
RTX3090で動作検証w
とはいえLLaMA-13bを量子化するにはCPUメモリ32GB必要で、LLaMA-33bだと64GB以上必要
リークしたし
色んな方法で軽くしたの出回るまで時間の問題な気する🤭 https://t.co/zLQo9EvpKC
4: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
LLM界にもwebuiあるw
— forasteran (@forasteran) March 6, 2023
→text-generation-webui
AUTOMATIC1111さんのみたいに
gradioで動くテキスト生成のwebui
🔧github. com/oobabooga/text-generation-webui pic.twitter.com/fsOE4LpEU6
テキスト生成webuiのissuesスレで、すごい勢いでLLaMA対応が試みられてるw
— forasteran (@forasteran) March 7, 2023
Support for LLaMA models #147
💬https://t.co/r3kKCOw7Xu
3090や4090保有民がいっぱいw
めちゃくちゃ遅いけどLLaMA 30Bが3090で動いた報告もある🤣
torrentどころかHuggingFaceにLLaMAモデル丸ごと上げられとるやんけ。こんな事は許されるべきではないと前置きしたうえで、どうせこんな事になるんだったらメタは最初から自分でHuggingFaceにモデル上げてフルオープンにしとけばよっぽど良かったわい。リークモデルがデファクトスタンダードになるとNA… https://t.co/fvhpuFbStd
— うみゆき@AI研究 (@umiyuki_ai) March 7, 2023
4chan魔境すぎるだろ…。
— まじかる☆しげぽん@VRoid (@m_sigepon) March 6, 2023
モデルリークの最悪なところは、マジでオープンソースで公開されてたり正規にAPIが提供されてた世界観が一気に崩壊するところ…。何が正規で、何がリーク、流出したモデルが使われてるか分からなくなる。
— まじかる☆しげぽん@VRoid (@m_sigepon) March 6, 2023
NAIリークモデル出た時マジで最悪だったし現在進行形
LLaMAリークされたらしい。大規模言語モデルもNAIリークみたいな状況になるのかな。
— PROFESSION (@zwbAXFnIe5fwKQd) March 7, 2023
無茶苦茶だよ。
metaのLLaMA流出したってマジ?
— matcha (@matcha_500ml) March 6, 2023
METAの言語モデルのLLaMAをダウンロードできたので、Ubuntuで動かしてみた。モデルは小さい方から7B,13B,33B,65B だが、うちの乏しい環境(メインメモリ80GB,GPUメモリ24GB )では、7Bしか動かなかった( 他はメモリ不足となる)。日本語はだめなようだが、動作自体は速くて問題はない。ご報告までに。
— yhkondo (@yhkondo) March 6, 2023
5: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
あ、もちろん、ダウンロード先は、噂の闇サイトではなく、正規のサイトです。
— yhkondo (@yhkondo) March 6, 2023
なんとか、せめて13B を動かしてみたいので、あとで、ColaboratoryプロのGPUを使ってやってみます。
— yhkondo (@yhkondo) March 6, 2023
もしかしたらFlexGENで大きいモデルも動かせるのかも? https://t.co/nda8NbGezJ
— サブカル科学研究会 (@Vx5tN) March 6, 2023
現状は対応してないのが残念です。
— yhkondo (@yhkondo) March 6, 2023
そうなんですか!今後対応することを期待しましょう。
— サブカル科学研究会 (@Vx5tN) March 6, 2023
LLaMA の 65B モデル、ダウンロードするだけで 235GB も必要ってマジなの??デカすぎる………https://t.co/01qcMUBzK1 pic.twitter.com/eXj5xWg5YX
— Torishima (@izutorishima) March 6, 2023
_________________________________________________________________________________
コメントする