3Blue1BrownJapan

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。動画はYouTube公式の動画プレイヤーで再生されるため、再生数・収益などはすべて元動画に還元されます。

Timetable

動画タイムテーブル

動画数:59件

ここで「関数」と言われてるように、今AIと呼ばれてるものは基本的に、途方もないほどに高度な「中国人の部屋」なんですよねこちらの言葉でAIの考え方が変わったり、新たな学びを得ているわけではない、あくまであるxを代入するとあるyが出力されるfでしかない - LLMの仕組み(簡単バージョン)

ここで「関数」と言われてるように、今AIと呼ばれてるものは基本的に、途方もないほどに高度な「中国人の部屋」なんですよねこちらの言葉でAIの考え方が変わったり、新たな学びを得ているわけではない、あくまであるxを代入するとあるyが出力されるfでしかない

LLMの仕組み(簡単バージョン)
2025年05月30日  @r-00x28 様 
00:00:37 - 00:07:44
AIが学習した内容に「ブルータス、お前もか」があって何か面白い😊 - LLMの仕組み(簡単バージョン)

AIが学習した内容に「ブルータス、お前もか」があって何か面白い😊

LLMの仕組み(簡単バージョン)
2025年05月30日  @ウイスキー大好き-m8k 様 
00:01:33 - 00:07:44
って思ってたら、結局最後は・・・やっぱり人力なのか - LLMの仕組み(簡単バージョン)

って思ってたら、結局最後は・・・やっぱり人力なのか

LLMの仕組み(簡単バージョン)
2025年05月30日  @inti-lime61 様 
00:03:38 - 00:07:44
めっちゃ楽しそうなお兄さんいいね - ホログラムの仕組み

めっちゃ楽しそうなお兄さんいいね

ホログラムの仕組み
2025年04月23日  @こたーろ_kota-ro 様 
00:00:36 - 00:43:14
名前が出ていますよ - ホログラムの仕組み

名前が出ていますよ

ホログラムの仕組み
2025年04月23日  @gomeso6831 様 
00:03:19 - 00:43:14
サリーさんの抱えてる猫めっちゃふてぶてしい顔してて愛おしい - ホログラムの仕組み

サリーさんの抱えてる猫めっちゃふてぶてしい顔してて愛おしい

ホログラムの仕組み
2025年04月23日  @owenu.n.4101 様 
00:03:37 - 00:43:14
太陽表面の粒状斑みたい - ホログラムの仕組み

太陽表面の粒状斑みたい

ホログラムの仕組み
2025年04月23日  @sepimesonish57 様 
00:09:14 - 00:43:14
ニュートンリングみたいなのがレーザーで見られるの不思議ですね - ホログラムの仕組み

ニュートンリングみたいなのがレーザーで見られるの不思議ですね

ホログラムの仕組み
2025年04月23日  @REIA-t1 様 
00:15:26 - 00:43:14
みゃくみゃく様出てきてアツい - ホログラムの仕組み

みゃくみゃく様出てきてアツい

ホログラムの仕組み
2025年04月23日  @Hartshorne1 様 
00:19:50 - 00:43:14
hyperfine transition of hydrogen - ホログラムの仕組み

hyperfine transition of hydrogen

ホログラムの仕組み
2025年04月23日  @raba-340 様 
00:24:13 - 00:43:14
本筋に関係ないですが、パイオニア探査機に刻まれてる水素原子の図のタトゥーを見つけて嬉しくなりました。シンプルな図と「これで伝わるのか…?」感が好きで、高校時代LINEのアイコンにしていました! - ホログラムの仕組み

本筋に関係ないですが、パイオニア探査機に刻まれてる水素原子の図のタトゥーを見つけて嬉しくなりました。シンプルな図と「これで伝わるのか…?」感が好きで、高校時代LINEのアイコンにしていました!

ホログラムの仕組み
2025年04月23日  @はるるるる 様 
00:24:13 - 00:43:14
ゴールデンレコード笑 - ホログラムの仕組み

ゴールデンレコード笑

ホログラムの仕組み
2025年04月23日  @rintarokobayashi 様 
00:24:23 - 00:43:14
二つ思い出しました。ストローや建築資材などパイプを無数に束ねたものを軸方向から見たことはありますか?自分に正面を向いてるところだけ、向こうの景色が透けて見えます。自分が移動しても透明な部分はいつも自分について来るように見えます。トンボやカマキリとかの持つ大きな複眼を覗き込んだことはありますか?彼らはいつも捕まえたこちらを睨み返して、絶対目をそらさないように見えます。でもそれは複眼の粒の一つ一つがある方向に揃っているからです。球面上に放射状に並んでれば、その中心に光を吸収する黒い点があるように見えます。球面上の黒い点がいつも中心に見えるので、黒目が常にこっちを向いてるように見えます。 - ホログラムの仕組み

二つ思い出しました。ストローや建築資材などパイプを無数に束ねたものを軸方向から見たことはありますか?自分に正面を向いてるところだけ、向こうの景色が透けて見えます。自分が移動しても透明な部分はいつも自分について来るように見えます。トンボやカマキリとかの持つ大きな複眼を覗き込んだことはありますか?彼らはいつも捕まえたこちらを睨み返して、絶対目をそらさないように見えます。でもそれは複眼の粒の一つ一つがある方向に揃っているからです。球面上に放射状に並んでれば、その中心に光を吸収する黒い点があるように見えます。球面上の黒い点がいつも中心に見えるので、黒目が常にこっちを向いてるように見えます。

ホログラムの仕組み
2025年04月23日  @須磨保太郎-s2y 様 
00:26:21 - 00:43:14
酔っ払って見てたんで  あたり(もしかして素数が関係してる?)からわけがわからなくなってきたんですが、とにかく高評価付けさせてもらって後ほどシラフのときに何度も見直したいと思います。単光レーザーによるホログラムの生成方法はやり方自体そんなに難しいものではないので以前から知ってはいたんですが、それを理解するのにまさか複素数の概念が出てくるとは思いもよりませんでした。 - ホログラムの仕組み

酔っ払って見てたんで あたり(もしかして素数が関係してる?)からわけがわからなくなってきたんですが、とにかく高評価付けさせてもらって後ほどシラフのときに何度も見直したいと思います。単光レーザーによるホログラムの生成方法はやり方自体そんなに難しいものではないので以前から知ってはいたんですが、それを理解するのにまさか複素数の概念が出てくるとは思いもよりませんでした。

ホログラムの仕組み
2025年04月23日  @granshoal9665 様 
00:29:00 - 00:43:14
で盛大にツッコミ入ったわ… - なぜ光が"遅くなる"と曲がるのか | 光学パズル4

で盛大にツッコミ入ったわ…

なぜ光が"遅くなる"と曲がるのか | 光学パズル4
2025年02月06日  @hihifuru 様 
00:07:37 - 00:12:30
ここからの話が一発で理解できる人はすごいなと思う…自分は山の速度と情報伝達速度がどうしてもごっちゃになってしまう - なぜ光が"遅くなる"と曲がるのか | 光学パズル4

ここからの話が一発で理解できる人はすごいなと思う…自分は山の速度と情報伝達速度がどうしてもごっちゃになってしまう

なぜ光が"遅くなる"と曲がるのか | 光学パズル4
2025年02月06日  @まきね-s4k 様 
00:07:43 - 00:12:30
からの説明エグすぎる波の山の速さが錯覚であることがすごく理解しやすかった - なぜ光が"遅くなる"と曲がるのか | 光学パズル4

からの説明エグすぎる波の山の速さが錯覚であることがすごく理解しやすかった

なぜ光が"遅くなる"と曲がるのか | 光学パズル4
2025年02月06日  @chronus338 様 
00:10:56 - 00:12:30
これ  で一番左端の波の上下の動きが3つとも同じなの見たらめちゃくちゃしっくりきた - なぜ光が"遅くなる"と曲がるのか | 光学パズル4

これ で一番左端の波の上下の動きが3つとも同じなの見たらめちゃくちゃしっくりきた

なぜ光が"遅くなる"と曲がるのか | 光学パズル4
2025年02月06日  @phos2147 様 
00:11:32 - 00:12:30
流石に下手すぎて笑った - なぜ光は"遅くなる"のか? | 光学パズル 3

流石に下手すぎて笑った

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @アルフレッド-l5o 様 
00:04:19 - 00:28:56
サブリミナル - なぜ光は"遅くなる"のか? | 光学パズル 3

サブリミナル

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @jtpgmwta 様 
00:04:53 - 00:28:56
desmosや!数学や物理を可視化して理解できるからお世話になっております - なぜ光は"遅くなる"のか? | 光学パズル 3

desmosや!数学や物理を可視化して理解できるからお世話になっております

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @ぬも 様 
00:05:54 - 00:28:56
一つの層に注目すると、A sin(kx) が A sin(kx + 0.80) になる。 - なぜ光は"遅くなる"のか? | 光学パズル 3

一つの層に注目すると、A sin(kx) が A sin(kx + 0.80) になる。

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @ymgch16 様 
00:06:27 - 00:28:56
の応答の非線形性から、二倍高調波発生(SHG)などの非線型光学や、媒質の結晶の対称性からどの高調波成分が生き残るか、みたいな話に動画が発展していくことを期待しています。 - なぜ光は"遅くなる"のか? | 光学パズル 3

の応答の非線形性から、二倍高調波発生(SHG)などの非線型光学や、媒質の結晶の対称性からどの高調波成分が生き残るか、みたいな話に動画が発展していくことを期待しています。

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @しがない会社員-r7l 様 
00:18:13 - 00:28:56
親の顔より見た微分方程式 - なぜ光は"遅くなる"のか? | 光学パズル 3

親の顔より見た微分方程式

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @ふきのとう-i6p 様 
00:18:45 - 00:28:56
の行為って、電子レンジ(水分子にマイクロ波をあてる)の仕組みであってますか? - なぜ光は"遅くなる"のか? | 光学パズル 3

の行為って、電子レンジ(水分子にマイクロ波をあてる)の仕組みであってますか?

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @パン太郎-j6e 様 
00:24:25 - 00:28:56
「姪っ子が振動している」絶対に今後一生聞かない言葉w - なぜ光は"遅くなる"のか? | 光学パズル 3

「姪っ子が振動している」絶対に今後一生聞かない言葉w

なぜ光は"遅くなる"のか? | 光学パズル 3
2024年12月31日  @mimizuikoi4296 様 
00:25:49 - 00:28:56
で3次元上で表示しはじめてビビった あえて離散的でないモデルの可視化をしてるのはこれが面白いからか - 揺れる電荷と光 | 光学パズル2

で3次元上で表示しはじめてビビった あえて離散的でないモデルの可視化をしてるのはこれが面白いからか

揺れる電荷と光 | 光学パズル2
2024年11月26日  @すっとんきょー 様 
00:05:59 - 00:21:05
辺りの件を応用するとフェイズどアレイレーダになる様に思うのですが、あってるのでしょか? - 揺れる電荷と光 | 光学パズル2

辺りの件を応用するとフェイズどアレイレーダになる様に思うのですが、あってるのでしょか?

揺れる電荷と光 | 光学パズル2
2024年11月26日  @TanhaTakamaruN 様 
00:07:57 - 00:21:05
で鳥肌立った。電場Eの向きってこういうことだったんだ…… - 揺れる電荷と光 | 光学パズル2

で鳥肌立った。電場Eの向きってこういうことだったんだ……

揺れる電荷と光 | 光学パズル2
2024年11月26日  @myuary 様 
00:08:48 - 00:21:05
の鳥肌すごい。一度見ればそうなるってわかるけど、本当に目からウロコだった。 - 揺れる電荷と光 | 光学パズル2

の鳥肌すごい。一度見ればそうなるってわかるけど、本当に目からウロコだった。

揺れる電荷と光 | 光学パズル2
2024年11月26日  @Polta_Sub 様 
00:18:17 - 00:21:05
でB↑=-1にして、1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない? - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

でB↑=-1にして、1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない?

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:08:50 - 00:10:50
仮にの上から1つ目しか見ないとしても、B↑のさじ加減で変わるくない?それとも、ニューラルネットワークだから良い具合にB↑も調整してくれるのかな?わからん - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

仮にの上から1つ目しか見ないとしても、B↑のさじ加減で変わるくない?それとも、ニューラルネットワークだから良い具合にB↑も調整してくれるのかな?わからん

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:08:50 - 00:17:00
反例として、の上から3つ目のB↑が+5.0だから通っちゃってるけど、結果が+1.5ってことはW↓Eiは-4.0だったってことになるはず。つまりマイケルジョーダンと全く関係ない情報も、B↑のさじ加減によって通っちゃってるんだがどういうことだ? - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

反例として、の上から3つ目のB↑が+5.0だから通っちゃってるけど、結果が+1.5ってことはW↓Eiは-4.0だったってことになるはず。つまりマイケルジョーダンと全く関係ない情報も、B↑のさじ加減によって通っちゃってるんだがどういうことだ?

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:08:50 - 00:08:50
でRELUで+ - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

でRELUで+

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:10:50 - 00:08:50
というかそもそも、のように1つだけにマイケルジョーダンの意味が入ってるって思考ロックが間違ってるのか?うーん、わからん - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

というかそもそも、のように1つだけにマイケルジョーダンの意味が入ってるって思考ロックが間違ってるのか?うーん、わからん

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:17:00 - 00:21:32
ここからのジョンソン-リンデンシュトラウスのレンマの流れは、目からうろこだった。N次元空間では、N個の概念しか思考できないと思ってた。実際は、e^(ε N)もの概念を思考できるのか。 - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

ここからのジョンソン-リンデンシュトラウスのレンマの流れは、目からうろこだった。N次元空間では、N個の概念しか思考できないと思ってた。実際は、e^(ε N)もの概念を思考できるのか。

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @merdekaataumati1949 様 
00:17:10 - 00:21:32
辺りからの部分って、100次元の乱数10000個を調整したら、それぞれの内積が90度近辺に収まることから、一個の乱数が一つの次元とほぼ同義になって、100次元のようで実は10000次元を表現できているって認識であってる? - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

辺りからの部分って、100次元の乱数10000個を調整したら、それぞれの内積が90度近辺に収まることから、一個の乱数が一つの次元とほぼ同義になって、100次元のようで実は10000次元を表現できているって認識であってる?

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @raise895 様 
00:18:10 - 00:21:32
顔ってC2なの?鏡面1つしかないように思うけど - 群論 と 19万6883次元のモンスター

顔ってC2なの?鏡面1つしかないように思うけど

群論 と 19万6883次元のモンスター
2024年09月09日  @Mew002 様 
00:01:47 - 00:21:34
「もし観測可能な宇宙にあるすべての原子一つ一つの中に宇宙のコピーがあったら、これは大体そのコピーの中の原子の数になります」←これどういうこと? - 群論 と 19万6883次元のモンスター

「もし観測可能な宇宙にあるすべての原子一つ一つの中に宇宙のコピーがあったら、これは大体そのコピーの中の原子の数になります」←これどういうこと?

群論 と 19万6883次元のモンスター
2024年09月09日  @かか-u7u1j 様 
00:04:13 - 00:21:34
うああIQテストで出るやつ! - 群論 と 19万6883次元のモンスター

うああIQテストで出るやつ!

群論 と 19万6883次元のモンスター
2024年09月09日  @急転Q_9.9 様 
00:09:06 - 00:21:34
すべての群はどんな感じなんだろう。同型でないすべての群はどんなだろうか。もう少し噛み砕いての解説をできる方いませんか? - 群論 と 19万6883次元のモンスター

すべての群はどんな感じなんだろう。同型でないすべての群はどんなだろうか。もう少し噛み砕いての解説をできる方いませんか?

群論 と 19万6883次元のモンスター
2024年09月09日  @青いカーテン-o6y 様 
00:13:15 - 00:21:34
*Typo on the "hard problem" at , it should be a/(b+c) + b/(a+c) + c/(a+b) = 4*Typo-turned-speako: The classification of quasithin groups is 1221 pages long, not 12,000.  The full collection of papers proving the CFSG theorem do comprise tens of thousands of pages, but no one paper was quite that crazy.---------------------------------------- - 群論 と 19万6883次元のモンスター

*Typo on the "hard problem" at , it should be a/(b+c) + b/(a+c) + c/(a+b) = 4*Typo-turned-speako: The classification of quasithin groups is 1221 pages long, not 12,000. The full collection of papers proving the CFSG theorem do comprise tens of thousands of pages, but no one paper was quite that crazy.----------------------------------------

群論 と 19万6883次元のモンスター
2024年09月09日 
00:13:47 - 00:21:34
ジョン・コンウェイってライフゲームとチェーン表記を作った人か… - 群論 と 19万6883次元のモンスター

ジョン・コンウェイってライフゲームとチェーン表記を作った人か…

群論 と 19万6883次元のモンスター
2024年09月09日  @新海-f4k 様 
00:20:10 - 00:21:34
領域の数はもちろん0, 1, 2, 3, 5ではなく1, 2, 3, 4, 5であるべきですね - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

領域の数はもちろん0, 1, 2, 3, 5ではなく1, 2, 3, 4, 5であるべきですね

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日 
00:08:30 - 00:15:44
から離脱してしまいました…どなたか解説をお願いします🙇😊 - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

から離脱してしまいました…どなたか解説をお願いします🙇😊

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日  @halfgreengreen 様 
00:09:02 - 00:15:44
その直前まではオイラーの多面体定理の説明で、その時は線分同士の交わり(交点)は考えていなかった。なので拡張して考えなきゃいけない。交点を新しい頂点と考えると、全頂点の数は「円周上の頂点+交点(←交点の数え方参照)」で数えられる。(の式)そして次は線分を数える。二本の線分からなる交点に着目すると「その交点に四本の線分が集まってる」と見えるので、二本の線分が四本の線分になる(二倍になっている)。つまり、頂点の数×二倍の線分が生まれる。なので全線分の数は「線分の数(←線分の数え方参照)+頂点の数を二倍したもの」( - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

その直前まではオイラーの多面体定理の説明で、その時は線分同士の交わり(交点)は考えていなかった。なので拡張して考えなきゃいけない。交点を新しい頂点と考えると、全頂点の数は「円周上の頂点+交点(←交点の数え方参照)」で数えられる。(の式)そして次は線分を数える。二本の線分からなる交点に着目すると「その交点に四本の線分が集まってる」と見えるので、二本の線分が四本の線分になる(二倍になっている)。つまり、頂点の数×二倍の線分が生まれる。なので全線分の数は「線分の数(←線分の数え方参照)+頂点の数を二倍したもの」(

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日  @忠犬-g5i 様 
00:09:04 - 00:09:57
の式)と考えられる。あとはオイラーの多面体定理の式に代入する。 - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

の式)と考えられる。あとはオイラーの多面体定理の式に代入する。

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日  @忠犬-g5i 様 
00:09:57 - 00:10:57
ここまででまでは理解できるかと。 - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

ここまででまでは理解できるかと。

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日  @忠犬-g5i 様 
00:10:57 - 00:15:44
1時間考えてわからなかったからネットで調べたら、選び方の公式の分母がr(n-r)!ではなくr!(n-r)!だったと初めて知った - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

1時間考えてわからなかったからネットで調べたら、選び方の公式の分母がr(n-r)!ではなくr!(n-r)!だったと初めて知った

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日  @kotan793 様 
00:12:05 - 00:15:44
心読まれた - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

心読まれた

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日  @pettiri 様 
00:12:17 - 00:15:44
これは未解決問題ということでしょうか?それとも答えはどこかの論文なり論説なりにあるのでしょうか? - 崩れるパターンとその面白い背景 | モーザーの円の分割問題

これは未解決問題ということでしょうか?それとも答えはどこかの論文なり論説なりにあるのでしょうか?

崩れるパターンとその面白い背景 | モーザーの円の分割問題
2024年08月11日  @kaoruuuuun 様 
00:14:29 - 00:15:44
のqueryの質問を96パターン考えることで、多角的にその単語の意味を理解してるってことなのか?でもどうやって96パターンの異なるqueryを生成するんだ?ニューラルネットワークの初期値を確率的に変えることでqueryが分散するのか? - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

のqueryの質問を96パターン考えることで、多角的にその単語の意味を理解してるってことなのか?でもどうやって96パターンの異なるqueryを生成するんだ?ニューラルネットワークの初期値を確率的に変えることでqueryが分散するのか?

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @user-ml4qd8kh4l 様 
00:06:20 - 00:26:05
あたりの行列計算(内積)、この書き方だとK^T Qにすべきじゃない?そんなことない? - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

あたりの行列計算(内積)、この書き方だとK^T Qにすべきじゃない?そんなことない?

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @いあ-u1o5q 様 
00:10:29 - 00:26:05
初心者すぎて、あたりの説明がわからない……1文を区切ることで、入力された文章自体を学習の材料に出来ちゃうというのは分かった。でも、今回の例は形容詞は後に続く名詞を説明しているから大丈夫だけど、後置修飾の場合だったら、後ろのトークンが前に影響を及ぼせるようにしないといけないのでは?後置修飾の情報は、どうやって反映されるんだ? - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

初心者すぎて、あたりの説明がわからない……1文を区切ることで、入力された文章自体を学習の材料に出来ちゃうというのは分かった。でも、今回の例は形容詞は後に続く名詞を説明しているから大丈夫だけど、後置修飾の場合だったら、後ろのトークンが前に影響を及ぼせるようにしないといけないのでは?後置修飾の情報は、どうやって反映されるんだ?

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @端-d1y 様 
00:12:00 - 00:26:05
コンテキストウィンドウについて - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

コンテキストウィンドウについて

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @relocatable_a 様 
00:12:39 - 00:26:05
で96個のquery, key, valueのセットを並列にニューラルネットワークで学習させてるようだけど、 - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

で96個のquery, key, valueのセットを並列にニューラルネットワークで学習させてるようだけど、

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @user-ml4qd8kh4l 様 
00:20:50 - 00:06:20
〜が答えですね。つまり、元の行列を一度各ヘッドに分解してattentionをしたあと、再結合してアウトプットしてるんですね。 - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

〜が答えですね。つまり、元の行列を一度各ヘッドに分解してattentionをしたあと、再結合してアウトプットしてるんですね。

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @ner-m9w 様 
00:22:20 - 00:26:05
maskingというのは予測をするために行う行為で、一方での演出は事前の学習段階を示している、ということなのでしょうか? - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

maskingというのは予測をするために行う行為で、一方での演出は事前の学習段階を示している、ということなのでしょうか?

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @端-d1y 様 
00:23:20 - 00:26:05
例えばで、後のトークンから前のトークンにも線が伸びて干渉しているような演出がなされているので、後ろから前にも影響を及ぼすのかと勘違いしてしまいました演出のことは気にしないことにします! - GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

例えばで、後のトークンから前のトークンにも線が伸びて干渉しているような演出がなされているので、後ろから前にも影響を及ぼすのかと勘違いしてしまいました演出のことは気にしないことにします!

GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
2024年06月08日  @端-d1y 様 
00:23:20 - 00:26:05