タイムテーブル - 3Blue1BrownJapan - 切り抜きDB 3Blue1BrownJapanのタイムテーブルです。 https://favtu.be/timelines-rss/c/UCBevyiJ2ierZY-0yZhfLrmQ Fri, 30 May 25 16:55:28 +0900 ここで「関数」と言われてるように、今AIと呼ばれてるものは基本的に、途方もないほどに高度な「中国人の部屋」なんですよねこちらの言葉でAIの考え方が変わったり、新たな学びを得ているわけではない、あくまであるxを代入するとあるyが出力されるfでしかない(00:00:37 - 00:07:44) https://favtu.be/timelines/v/y7NQiNER6r4/s/37/e/464 Fri, 30 May 25 16:55:28 +0900 LLMの仕組み(簡単バージョン) AIが学習した内容に「ブルータス、お前もか」があって何か面白い😊(00:01:33 - 00:07:44) https://favtu.be/timelines/v/y7NQiNER6r4/s/93/e/464 Fri, 30 May 25 16:55:28 +0900 LLMの仕組み(簡単バージョン) って思ってたら、結局最後は・・・やっぱり人力なのか(00:03:38 - 00:07:44) https://favtu.be/timelines/v/y7NQiNER6r4/s/218/e/464 Fri, 30 May 25 16:55:28 +0900 LLMの仕組み(簡単バージョン) めっちゃ楽しそうなお兄さんいいね(00:00:36 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/36/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み 名前が出ていますよ(00:03:19 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/199/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み サリーさんの抱えてる猫めっちゃふてぶてしい顔してて愛おしい(00:03:37 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/217/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み 太陽表面の粒状斑みたい(00:09:14 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/554/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み ニュートンリングみたいなのがレーザーで見られるの不思議ですね(00:15:26 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/926/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み みゃくみゃく様出てきてアツい(00:19:50 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/1190/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み hyperfine transition of hydrogen(00:24:13 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/1453/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み 本筋に関係ないですが、パイオニア探査機に刻まれてる水素原子の図のタトゥーを見つけて嬉しくなりました。シンプルな図と「これで伝わるのか…?」感が好きで、高校時代LINEのアイコンにしていました!(00:24:13 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/1453/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み ゴールデンレコード笑(00:24:23 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/1463/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み 二つ思い出しました。ストローや建築資材などパイプを無数に束ねたものを軸方向から見たことはありますか?自分に正面を向いてるところだけ、向こうの景色が透けて見えます。自分が移動しても透明な部分はいつも自分について来るように見えます。トンボやカマキリとかの持つ大きな複眼を覗き込んだことはありますか?彼らはいつも捕まえたこちらを睨み返して、絶対目をそらさないように見えます。でもそれは複眼の粒の一つ一つがある方向に揃っているからです。球面上に放射状に並んでれば、その中心に光を吸収する黒い点があるように見えます。球面上の黒い点がいつも中心に見えるので、黒目が常にこっちを向いてるように見えます。(00:26:21 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/1581/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み 酔っ払って見てたんで あたり(もしかして素数が関係してる?)からわけがわからなくなってきたんですが、とにかく高評価付けさせてもらって後ほどシラフのときに何度も見直したいと思います。単光レーザーによるホログラムの生成方法はやり方自体そんなに難しいものではないので以前から知ってはいたんですが、それを理解するのにまさか複素数の概念が出てくるとは思いもよりませんでした。(00:29:00 - 00:43:14) https://favtu.be/timelines/v/Mm5-2IT5UPU/s/1740/e/2594 Wed, 23 Apr 25 17:04:07 +0900 ホログラムの仕組み で盛大にツッコミ入ったわ…(00:07:37 - 00:12:30) https://favtu.be/timelines/v/Ru-OdoLtIs0/s/457/e/750 Thu, 06 Feb 25 16:28:21 +0900 なぜ光が"遅くなる"と曲がるのか | 光学パズル4 ここからの話が一発で理解できる人はすごいなと思う…自分は山の速度と情報伝達速度がどうしてもごっちゃになってしまう(00:07:43 - 00:12:30) https://favtu.be/timelines/v/Ru-OdoLtIs0/s/463/e/750 Thu, 06 Feb 25 16:28:21 +0900 なぜ光が"遅くなる"と曲がるのか | 光学パズル4 からの説明エグすぎる波の山の速さが錯覚であることがすごく理解しやすかった(00:10:56 - 00:12:30) https://favtu.be/timelines/v/Ru-OdoLtIs0/s/656/e/750 Thu, 06 Feb 25 16:28:21 +0900 なぜ光が"遅くなる"と曲がるのか | 光学パズル4 これ で一番左端の波の上下の動きが3つとも同じなの見たらめちゃくちゃしっくりきた(00:11:32 - 00:12:30) https://favtu.be/timelines/v/Ru-OdoLtIs0/s/692/e/750 Thu, 06 Feb 25 16:28:21 +0900 なぜ光が"遅くなる"と曲がるのか | 光学パズル4 流石に下手すぎて笑った(00:04:19 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/259/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 サブリミナル(00:04:53 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/293/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 desmosや!数学や物理を可視化して理解できるからお世話になっております(00:05:54 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/354/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 一つの層に注目すると、A sin(kx) が A sin(kx + 0.80) になる。(00:06:27 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/387/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 の応答の非線形性から、二倍高調波発生(SHG)などの非線型光学や、媒質の結晶の対称性からどの高調波成分が生き残るか、みたいな話に動画が発展していくことを期待しています。(00:18:13 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/1093/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 親の顔より見た微分方程式(00:18:45 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/1125/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 の行為って、電子レンジ(水分子にマイクロ波をあてる)の仕組みであってますか?(00:24:25 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/1465/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 「姪っ子が振動している」絶対に今後一生聞かない言葉w(00:25:49 - 00:28:56) https://favtu.be/timelines/v/AUdPVQbZLos/s/1549/e/1736 Tue, 31 Dec 24 12:32:36 +0900 なぜ光は"遅くなる"のか? | 光学パズル 3 で3次元上で表示しはじめてビビった あえて離散的でないモデルの可視化をしてるのはこれが面白いからか(00:05:59 - 00:21:05) https://favtu.be/timelines/v/vFxTYRYi5lM/s/359/e/1265 Tue, 26 Nov 24 15:58:57 +0900 揺れる電荷と光 | 光学パズル2 辺りの件を応用するとフェイズどアレイレーダになる様に思うのですが、あってるのでしょか?(00:07:57 - 00:21:05) https://favtu.be/timelines/v/vFxTYRYi5lM/s/477/e/1265 Tue, 26 Nov 24 15:58:57 +0900 揺れる電荷と光 | 光学パズル2 で鳥肌立った。電場Eの向きってこういうことだったんだ……(00:08:48 - 00:21:05) https://favtu.be/timelines/v/vFxTYRYi5lM/s/528/e/1265 Tue, 26 Nov 24 15:58:57 +0900 揺れる電荷と光 | 光学パズル2 の鳥肌すごい。一度見ればそうなるってわかるけど、本当に目からウロコだった。(00:18:17 - 00:21:05) https://favtu.be/timelines/v/vFxTYRYi5lM/s/1097/e/1265 Tue, 26 Nov 24 15:58:57 +0900 揺れる電荷と光 | 光学パズル2 でB↑=-1にして、1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない?(00:08:50 - 00:10:50) https://favtu.be/timelines/v/mmWuqh7XDx4/s/530/e/650 Mon, 07 Oct 24 11:49:42 +0900 LLMはどう知識を記憶しているか | Chapter 7, 深層学習 仮にの上から1つ目しか見ないとしても、B↑のさじ加減で変わるくない?それとも、ニューラルネットワークだから良い具合にB↑も調整してくれるのかな?わからん(00:08:50 - 00:17:00) https://favtu.be/timelines/v/mmWuqh7XDx4/s/530/e/1020 Mon, 07 Oct 24 11:49:42 +0900 LLMはどう知識を記憶しているか | Chapter 7, 深層学習 反例として、の上から3つ目のB↑が+5.0だから通っちゃってるけど、結果が+1.5ってことはW↓Eiは-4.0だったってことになるはず。つまりマイケルジョーダンと全く関係ない情報も、B↑のさじ加減によって通っちゃってるんだがどういうことだ?(00:08:50 - 00:08:50) https://favtu.be/timelines/v/mmWuqh7XDx4/s/530/e/530 Mon, 07 Oct 24 11:49:42 +0900 LLMはどう知識を記憶しているか | Chapter 7, 深層学習 でRELUで+(00:10:50 - 00:08:50) https://favtu.be/timelines/v/mmWuqh7XDx4/s/650/e/530 Mon, 07 Oct 24 11:49:42 +0900 LLMはどう知識を記憶しているか | Chapter 7, 深層学習 というかそもそも、のように1つだけにマイケルジョーダンの意味が入ってるって思考ロックが間違ってるのか?うーん、わからん(00:17:00 - 00:21:32) https://favtu.be/timelines/v/mmWuqh7XDx4/s/1020/e/1292 Mon, 07 Oct 24 11:49:42 +0900 LLMはどう知識を記憶しているか | Chapter 7, 深層学習 ここからのジョンソン-リンデンシュトラウスのレンマの流れは、目からうろこだった。N次元空間では、N個の概念しか思考できないと思ってた。実際は、e^(ε N)もの概念を思考できるのか。(00:17:10 - 00:21:32) https://favtu.be/timelines/v/mmWuqh7XDx4/s/1030/e/1292 Mon, 07 Oct 24 11:49:42 +0900 LLMはどう知識を記憶しているか | Chapter 7, 深層学習 辺りからの部分って、100次元の乱数10000個を調整したら、それぞれの内積が90度近辺に収まることから、一個の乱数が一つの次元とほぼ同義になって、100次元のようで実は10000次元を表現できているって認識であってる?(00:18:10 - 00:21:32) https://favtu.be/timelines/v/mmWuqh7XDx4/s/1090/e/1292 Mon, 07 Oct 24 11:49:42 +0900 LLMはどう知識を記憶しているか | Chapter 7, 深層学習 顔ってC2なの?鏡面1つしかないように思うけど(00:01:47 - 00:21:34) https://favtu.be/timelines/v/LKHDi-E4jMI/s/107/e/1294 Mon, 09 Sep 24 17:19:42 +0900 群論 と 19万6883次元のモンスター 「もし観測可能な宇宙にあるすべての原子一つ一つの中に宇宙のコピーがあったら、これは大体そのコピーの中の原子の数になります」←これどういうこと?(00:04:13 - 00:21:34) https://favtu.be/timelines/v/LKHDi-E4jMI/s/253/e/1294 Mon, 09 Sep 24 17:19:42 +0900 群論 と 19万6883次元のモンスター うああIQテストで出るやつ!(00:09:06 - 00:21:34) https://favtu.be/timelines/v/LKHDi-E4jMI/s/546/e/1294 Mon, 09 Sep 24 17:19:42 +0900 群論 と 19万6883次元のモンスター すべての群はどんな感じなんだろう。同型でないすべての群はどんなだろうか。もう少し噛み砕いての解説をできる方いませんか?(00:13:15 - 00:21:34) https://favtu.be/timelines/v/LKHDi-E4jMI/s/795/e/1294 Mon, 09 Sep 24 17:19:42 +0900 群論 と 19万6883次元のモンスター *Typo on the "hard problem" at , it should be a/(b+c) + b/(a+c) + c/(a+b) = 4*Typo-turned-speako: The classification of quasithin groups is 1221 pages long, not 12,000. The full collection of papers proving the CFSG theorem do comprise tens of thousands of pages, but no one paper was quite that crazy.----------------------------------------(00:13:47 - 00:21:34) https://favtu.be/timelines/v/LKHDi-E4jMI/s/827/e/1294 Mon, 09 Sep 24 17:19:42 +0900 群論 と 19万6883次元のモンスター ジョン・コンウェイってライフゲームとチェーン表記を作った人か…(00:20:10 - 00:21:34) https://favtu.be/timelines/v/LKHDi-E4jMI/s/1210/e/1294 Mon, 09 Sep 24 17:19:42 +0900 群論 と 19万6883次元のモンスター 領域の数はもちろん0, 1, 2, 3, 5ではなく1, 2, 3, 4, 5であるべきですね(00:08:30 - 00:15:44) https://favtu.be/timelines/v/VeeZ739lADM/s/510/e/944 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 から離脱してしまいました…どなたか解説をお願いします🙇😊(00:09:02 - 00:15:44) https://favtu.be/timelines/v/VeeZ739lADM/s/542/e/944 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 その直前まではオイラーの多面体定理の説明で、その時は線分同士の交わり(交点)は考えていなかった。なので拡張して考えなきゃいけない。交点を新しい頂点と考えると、全頂点の数は「円周上の頂点+交点(←交点の数え方参照)」で数えられる。(の式)そして次は線分を数える。二本の線分からなる交点に着目すると「その交点に四本の線分が集まってる」と見えるので、二本の線分が四本の線分になる(二倍になっている)。つまり、頂点の数×二倍の線分が生まれる。なので全線分の数は「線分の数(←線分の数え方参照)+頂点の数を二倍したもの」((00:09:04 - 00:09:57) https://favtu.be/timelines/v/VeeZ739lADM/s/544/e/597 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 の式)と考えられる。あとはオイラーの多面体定理の式に代入する。(00:09:57 - 00:10:57) https://favtu.be/timelines/v/VeeZ739lADM/s/597/e/657 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 ここまででまでは理解できるかと。(00:10:57 - 00:15:44) https://favtu.be/timelines/v/VeeZ739lADM/s/657/e/944 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 1時間考えてわからなかったからネットで調べたら、選び方の公式の分母がr(n-r)!ではなくr!(n-r)!だったと初めて知った(00:12:05 - 00:15:44) https://favtu.be/timelines/v/VeeZ739lADM/s/725/e/944 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 心読まれた(00:12:17 - 00:15:44) https://favtu.be/timelines/v/VeeZ739lADM/s/737/e/944 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 これは未解決問題ということでしょうか?それとも答えはどこかの論文なり論説なりにあるのでしょうか?(00:14:29 - 00:15:44) https://favtu.be/timelines/v/VeeZ739lADM/s/869/e/944 Sun, 11 Aug 24 19:24:05 +0900 崩れるパターンとその面白い背景 | モーザーの円の分割問題 のqueryの質問を96パターン考えることで、多角的にその単語の意味を理解してるってことなのか?でもどうやって96パターンの異なるqueryを生成するんだ?ニューラルネットワークの初期値を確率的に変えることでqueryが分散するのか?(00:06:20 - 00:26:05) https://favtu.be/timelines/v/j3_VgCt18fA/s/380/e/1565 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習 あたりの行列計算(内積)、この書き方だとK^T Qにすべきじゃない?そんなことない?(00:10:29 - 00:26:05) https://favtu.be/timelines/v/j3_VgCt18fA/s/629/e/1565 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習 初心者すぎて、あたりの説明がわからない……1文を区切ることで、入力された文章自体を学習の材料に出来ちゃうというのは分かった。でも、今回の例は形容詞は後に続く名詞を説明しているから大丈夫だけど、後置修飾の場合だったら、後ろのトークンが前に影響を及ぼせるようにしないといけないのでは?後置修飾の情報は、どうやって反映されるんだ?(00:12:00 - 00:26:05) https://favtu.be/timelines/v/j3_VgCt18fA/s/720/e/1565 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習 コンテキストウィンドウについて(00:12:39 - 00:26:05) https://favtu.be/timelines/v/j3_VgCt18fA/s/759/e/1565 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習 で96個のquery, key, valueのセットを並列にニューラルネットワークで学習させてるようだけど、(00:20:50 - 00:06:20) https://favtu.be/timelines/v/j3_VgCt18fA/s/1250/e/380 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習 〜が答えですね。つまり、元の行列を一度各ヘッドに分解してattentionをしたあと、再結合してアウトプットしてるんですね。(00:22:20 - 00:26:05) https://favtu.be/timelines/v/j3_VgCt18fA/s/1340/e/1565 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習 maskingというのは予測をするために行う行為で、一方での演出は事前の学習段階を示している、ということなのでしょうか?(00:23:20 - 00:26:05) https://favtu.be/timelines/v/j3_VgCt18fA/s/1400/e/1565 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習 例えばで、後のトークンから前のトークンにも線が伸びて干渉しているような演出がなされているので、後ろから前にも影響を及ぼすのかと勘違いしてしまいました演出のことは気にしないことにします!(00:23:20 - 00:26:05) https://favtu.be/timelines/v/j3_VgCt18fA/s/1400/e/1565 Sat, 08 Jun 24 17:00:24 +0900 GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習