1: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
ChatGPT・GPT-4・ChatGPTプラグインの全てで使われてる「呪文」、そして2022年一番記憶に残った言語モデルの論文は @Matsuo_Lab 松尾研の小島君と岩沢さん @yusuke_iwasawa_ さんが見つけました。私も論文を手伝いましたが素晴らしい発見でした。
— シェイン・グウ (@shanegJP) March 26, 2023
なぜこれを日本人が見つけられたか?...(次) https://t.co/4BR1JkY8tU
「物」(AI、GPT、ChatGPT)に「人のように」ただ聞いてみる。今じゃ当たり前ですが、アメリカ人や他にはなかった発想だと思います。これも:https://t.co/X146Wrij5M
— シェイン・グウ (@shanegJP) March 26, 2023
※: 本日のおすすめサイト記事一覧 0000/00/00(※) ID:metaversesoku
当たり前ですがGPT-4の論文でも引用され使われてます。
— シェイン・グウ (@shanegJP) March 26, 2023
GPT-4論文: https://t.co/PZsmFis4eb 小島君の論文:https://t.co/F7ktAQEPdq pic.twitter.com/6TnJ5aYib5
深層学習界の伝説の一人のジミー・バさん(30代前半、引用数17万越えhttps://t.co/Fkxy6TZpyR)は「シェイン、君とコジマの論文を見て俺も大規模言語モデルやるよ」と案の定半年で超える論文を書いてきました。https://t.co/9XCOMdXypA
— シェイン・グウ (@shanegJP) March 26, 2023
学部の先輩に当たる人で国際会議でよく牛角とジェンガをします。 pic.twitter.com/4y1wu0pSB8
OpenAIなかのひとがこゆな視点なんですね、面白い。 https://t.co/wwTbHewe7P
— 遠田幹雄@中小企業診断士 どもども (@tohdamikio) March 26, 2023
— ひろむ✨TOEIC900目標 (@vanskomeda) March 26, 2023
日本人には、ニコニコ動画の文化に代表されるように、「金にはならないけど、一瞬の笑いのために、謎の努力を惜しまない文化」が存在していることが大きいように感じる。chat gptを使い倒してやろう・面白い遊び方を考えてやろうという人の母数が、日本はかなり多い印象。 https://t.co/dNUtViZdat
— ゆるすけ (@yurusuke0721) March 26, 2023
4: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
これ確かに実践してて僕も気づいた。掛け算をやらせるときに、4636*3774を計算させるときにまずは6*4、次に3*4というふうに順を追って計算してみてください。と言うとすんなり計算できたりする。 https://t.co/oA8xC0lVsz
— おーした🦏 (@oshita_ml) March 26, 2023
記事を見た時は「へーふーん」位だったのだけど、実はこれが凄い発見だというコメントを見て、そうなのか!と勉強不足を痛感した。全然時代についていけてないw https://t.co/TliTY5pQnb
— まつばら@プロフ変更しました(8/14 (@yoshi0426) March 26, 2023
興味深い。 https://t.co/8yV8RquD2B
— バサラ (@basa71048) March 26, 2023
大規模言語モデルに「一歩ずつ考えよう」という指示を加えると、特に数学関連の正答率が上がります。
— 旅人 (@Tomoto1234567) March 26, 2023
これは私も幾つかのpromptを試す中で感じた事です。むしろLLMsはごちゃっとした指示が苦手なのかな、と。例えば翻訳と要約を同時にやらせる一文を書いたのですが、どうもうまくいかないですね🤔 https://t.co/TWsCTw6oee
興味深い!!! https://t.co/Pm8jfqpuHy
— 黒ラブ教授(科学コミュニケーター、理系文系どっちも研究する人) (@kurorabukyouzyu) March 26, 2023
こういうの、チェックボックスオプションで頼む https://t.co/QeyQXKdvCM
— てらす🍙 (@terasu3211) March 26, 2023
5: 名無しのメタバースさん 0000/00/00(※) 00:00:00.00 ID:metaversesoku
この論文話題になってるんだけど凄さが全くわからない… https://t.co/3yZXsV4OGB
— すぺはら (@muro731) March 26, 2023
— pam-p⚡🇯🇵 (@pam_p007) March 26, 2023
これ、もうちょっとシンプルな仕組みな気がしていて…
— 深津 貴之 / THE GUILD / note.com (@fladdict) March 26, 2023
「段階的に考えよう」という文章が含まれていた場合、「段階的に考える人ような文章の平均値」がでてきて、書かない場合は「もっと広い空間の平均値」みたいのが出てくるはずなのかなと。
潜在空間をかなり枝刈りしているのではないかと思う。 https://t.co/cRqLfuxCjz
その通りだと思います。
— Kagerou(shiromac) (@shiromacKagerou) March 26, 2023
1.途中式が記述されている空間に限定される。
2.途中式まで書いているのに結論が間違っているということは確率的に低くなる。
3.最終的に、途中式ありの空間はより論理的であるということですね。
ネガティブプロンプトみたいな仕組みいるなぁ https://t.co/SLAcLk6FMe
— ふしめろ@5/7コミライ参加予定 (@hushinomiya) March 26, 2023
なるほど~。LLMも画像生成で画風を指定するのと同じような手法で空間を狭めているのかもと。となると、やっぱり「人間が理解しやすいように質問する」ではなくて「質問の曖昧さをなくす」の方がプロンプトの考え方としては正しいのかも。 https://t.co/sMt2ObmhLM
— tlanoAI (@TlanoAI) March 26, 2023
CoT(Chain of Thought)面白いよね!
— forasteran (@forasteran) March 26, 2023
潜在空間でCoTぽい思考になってる文章に絞られてく
LLMは巨大迷路の経路選択みたいなイメージとも思ってる
プロンプトや設定がLLMの巨大迷路で道を選択する際の基準で、"段階的に考えよう"とあればStepを踏んだ経路(文章)を選んでくる的なhttps://t.co/2KBLDDHVoZ
深津さんに完全同意で、実際に #ChatGPT でやってみると違いがわかります。
— 芦沢壮一 ChatGPT|スキルノート®︎ 主宰 (@skill_note) March 26, 2023
①step by step のような指示を含めて一発で聞く
②「今日は雨ですね。」で一回切って、「過去10年間の日本国内での短時間豪雨(1時間あたり50mm以上)の発生回数は?」「その原因は?」と段階的に聞く。
→②の方が精度高い https://t.co/CznLXtlP3V
_________________________________________________________________________________
コメントする