3Blue1BrownJapan

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。動画はYouTube公式の動画プレイヤーで再生されるため、再生数・収益などはすべて元動画に還元されます。

Timetable

動画タイムテーブル

動画数:59件

ファッションモデルの機械学習モデルのような事を話す場合はGPTは混乱するのだろうかいやまあ人間も混乱する気はするが… - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

ファッションモデルの機械学習モデルのような事を話す場合はGPTは混乱するのだろうかいやまあ人間も混乱する気はするが…

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @新海-f4k 様 
00:04:20 - 00:26:36
1980年代に大学生の僕はそのアプローチでのAIの勉強をしていました。LISPやPrologなどのプログラミング言語を駆使してモデルを構築しようと試みられた時代です。当時それらの言語に最適化した専用のコンピュータまで開発されましたが、結局実用的なAIはできなかった。その頃既にニューラルネットワークの基礎理論はありましたが主流ではありませんでした。昨今のAIの隆盛を見ると、新しい時代が来たことをしみじみと感じます。わかりやすい動画での解説ありがとうございます。 - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

1980年代に大学生の僕はそのアプローチでのAIの勉強をしていました。LISPやPrologなどのプログラミング言語を駆使してモデルを構築しようと試みられた時代です。当時それらの言語に最適化した専用のコンピュータまで開発されましたが、結局実用的なAIはできなかった。その頃既にニューラルネットワークの基礎理論はありましたが主流ではありませんでした。昨今のAIの隆盛を見ると、新しい時代が来たことをしみじみと感じます。わかりやすい動画での解説ありがとうございます。

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @pumochan 様 
00:07:45 - 00:26:36
ヒトラーを足すとかいうパワーワードで笑ってしまった - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

ヒトラーを足すとかいうパワーワードで笑ってしまった

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @yukikotanaka3685 様 
00:15:45 - 00:26:36
「ドイツ-日本」という地域の差に「スシ」を加えると、「ソーセージ」が得られる。面白い!わかりやすい!ベクトルで考えると似た要素同士が近い距離に集まって、要素と要素の関係性が「特徴」として類似のベクトルを作り出す、なるほどー。 - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

「ドイツ-日本」という地域の差に「スシ」を加えると、「ソーセージ」が得られる。面白い!わかりやすい!ベクトルで考えると似た要素同士が近い距離に集まって、要素と要素の関係性が「特徴」として類似のベクトルを作り出す、なるほどー。

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @須磨保太郎-s2y 様 
00:16:04 - 00:26:36
内積を二つのベクトルがどれくらい揃っているかを表す尺度とすると、内積はベクトルの大きさにも依存するのでのような比較には向かないかと思うのですが、実際には正規化など行われているのでしょうか?数学には自信がなく、誤っていたらすみません。ベクトルの大きさが意味することがわかると理解できるかもしれませんし、次回も楽しみです! - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

内積を二つのベクトルがどれくらい揃っているかを表す尺度とすると、内積はベクトルの大きさにも依存するのでのような比較には向かないかと思うのですが、実際には正規化など行われているのでしょうか?数学には自信がなく、誤っていたらすみません。ベクトルの大きさが意味することがわかると理解できるかもしれませんし、次回も楽しみです!

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @マツシマケイゴ 様 
00:17:33 - 00:26:36
Unembedding matrix(アンエンべディングマトリックス)を表現行列ってどこかで言ってたのを見たような聞いたような…。忘却の彼方。 - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

Unembedding matrix(アンエンべディングマトリックス)を表現行列ってどこかで言ってたのを見たような聞いたような…。忘却の彼方。

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @ariakia-rs2lh 様 
00:21:30 - 00:26:36
ソフトマックス関数が量子力学の各エネルギー固有値に粒子が存在する確率を表す関数p_i=exp(-βE_i)/(Σexp(-βE_i) と完全に同じ形なのおもろい - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

ソフトマックス関数が量子力学の各エネルギー固有値に粒子が存在する確率を表す関数p_i=exp(-βE_i)/(Σexp(-βE_i) と完全に同じ形なのおもろい

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @owata1942 様 
00:22:21 - 00:26:36
メモ Temperature - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

メモ Temperature

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @relocatable_a 様 
00:23:55 - 00:26:36
個人的メモ:  から連続関数 - 畳み込み | 確率の美しい演算

個人的メモ: から連続関数

畳み込み | 確率の美しい演算
2024年03月23日  @ザックスコピー 様 
00:10:00 - 00:24:44
からの、「-1/2から1/2の間の一様分布を持っている確率変数」との和の分布を作る操作が、積分回路に電気信号を流す操作にとても似ていて面白かったです。どっちも積分なんだから当然だけど⋯。つまり複数の積分回路を直列に繋いで信号を流すと、繋いだ積分回路の数次第で、出力はベルカーブに近づいていくはず。入力がどんな波形だとしても。(理想的には) - 畳み込み | 確率の美しい演算

からの、「-1/2から1/2の間の一様分布を持っている確率変数」との和の分布を作る操作が、積分回路に電気信号を流す操作にとても似ていて面白かったです。どっちも積分なんだから当然だけど⋯。つまり複数の積分回路を直列に繋いで信号を流すと、繋いだ積分回路の数次第で、出力はベルカーブに近づいていくはず。入力がどんな波形だとしても。(理想的には)

畳み込み | 確率の美しい演算
2024年03月23日  @ackey_kirich 様 
00:14:46 - 00:25:44
なんで断面の面積をさらに√2で割るのか、最初疑問だったけど多分わかった - 畳み込み | 確率の美しい演算

なんで断面の面積をさらに√2で割るのか、最初疑問だったけど多分わかった

畳み込み | 確率の美しい演算
2024年03月23日  @Braille-ng8wh 様 
00:21:35 - 00:25:44
この式みて、大体わかった。指数関数の掛け算って、指数部分の足し算だよね - 畳み込み | 確率の美しい演算

この式みて、大体わかった。指数関数の掛け算って、指数部分の足し算だよね

畳み込み | 確率の美しい演算
2024年03月23日  @merdekaataumati1949 様 
00:24:42 - 00:25:44
から本題❤ - 畳み込み | 確率の美しい演算

から本題❤

畳み込み | 確率の美しい演算
2024年03月23日  @ザックスコピー 様 
00:24:44 - 00:25:44
「『自然科学における数学の不合理な有効性』というフレーズを聞いたことがあるかもしれません」←聞いたことがなかった - なぜ正規分布に「π」が現れるか

「『自然科学における数学の不合理な有効性』というフレーズを聞いたことがあるかもしれません」←聞いたことがなかった

なぜ正規分布に「π」が現れるか
2024年03月17日  @seawa8727 様 
00:00:00 - 00:25:00
カイトをフォローしてるから - なぜ正規分布に「π」が現れるか

カイトをフォローしてるから

なぜ正規分布に「π」が現れるか
2024年03月17日  @Mr-fr6xq 様 
00:00:37 - 00:25:00
 (1) - なぜ正規分布に「π」が現れるか

(1)

なぜ正規分布に「π」が現れるか
2024年03月17日  @ねこのちーちゃん 様 
00:02:20 - 00:02:51
 (2) - なぜ正規分布に「π」が現れるか

(2)

なぜ正規分布に「π」が現れるか
2024年03月17日  @ねこのちーちゃん 様 
00:02:51 - 00:25:00
元の数式はそこそこわかり、いくつく先も直感では正しいとわかっているのに、その間はどうやらトリックが必要だとわかると、自分で解決するのはほぼ無理で行き詰まる。そんなときは教授に直接聞くかクラスの一番賢い奴から手ほどきを受けるかする必要が有るのだが、動画で説明してくれて、それが良くわかるのに驚くよ。 - なぜ正規分布に「π」が現れるか

元の数式はそこそこわかり、いくつく先も直感では正しいとわかっているのに、その間はどうやらトリックが必要だとわかると、自分で解決するのはほぼ無理で行き詰まる。そんなときは教授に直接聞くかクラスの一番賢い奴から手ほどきを受けるかする必要が有るのだが、動画で説明してくれて、それが良くわかるのに驚くよ。

なぜ正規分布に「π」が現れるか
2024年03月17日  @TheBikkuri 様 
00:05:30 - 00:25:00
高さがなぜ e^-(r^2) になるんですか?? - なぜ正規分布に「π」が現れるか

高さがなぜ e^-(r^2) になるんですか??

なぜ正規分布に「π」が現れるか
2024年03月17日  @yohan322 様 
00:07:26 - 00:25:00
この辺の話を代数的処理(積分における変数変換)も使って併せて示せば、係数2πが極座標系から自然と出てくるのが明瞭になるのではないかと思います。実用的な知識にもなるのではないかと思います。 - なぜ正規分布に「π」が現れるか

この辺の話を代数的処理(積分における変数変換)も使って併せて示せば、係数2πが極座標系から自然と出てくるのが明瞭になるのではないかと思います。実用的な知識にもなるのではないかと思います。

なぜ正規分布に「π」が現れるか
2024年03月17日  @PGW90RU14 様 
00:07:40 - 00:25:00
-e^(-r^2)の導関数が2r・e^(−r^2)になる理由がわからない - なぜ正規分布に「π」が現れるか

-e^(-r^2)の導関数が2r・e^(−r^2)になる理由がわからない

なぜ正規分布に「π」が現れるか
2024年03月17日  @仮名ろはん 様 
00:08:47 - 00:25:00
分母は2πσ^2が正しいです - なぜ正規分布に「π」が現れるか

分母は2πσ^2が正しいです

なぜ正規分布に「π」が現れるか
2024年03月17日 
00:13:55 - 00:25:00
言葉で説明するとき、 xとyが独立 としか条件のことを言っていないけれど、そこから飛躍して関数を積の形に変数分離できると仮定しているここで他でもない積の形にxとyを変数分離できるとしているところが全てだと思う積の形という指定がなければ無数に関数が存在するだから、ガウス分布が導かれる理由を説明するにはなぜ積の形に変数分離されるのかを説明できなければいけない別にxとyが独立であるという条件が満たされれば良いのなら積でなくてもいいのでは?という意見に対して何か説明できてこそ、ガウス分布を理解していると言える - なぜ正規分布に「π」が現れるか

言葉で説明するとき、 xとyが独立 としか条件のことを言っていないけれど、そこから飛躍して関数を積の形に変数分離できると仮定しているここで他でもない積の形にxとyを変数分離できるとしているところが全てだと思う積の形という指定がなければ無数に関数が存在するだから、ガウス分布が導かれる理由を説明するにはなぜ積の形に変数分離されるのかを説明できなければいけない別にxとyが独立であるという条件が満たされれば良いのなら積でなくてもいいのでは?という意見に対して何か説明できてこそ、ガウス分布を理解していると言える

なぜ正規分布に「π」が現れるか
2024年03月17日  @Semp_ukiuki 様 
00:14:55 - 00:25:00
ここがどうしてf(x,y)=g(x)h(y)になるかがわからないです、、、別にg(x)+h(y)とかでもいいんじゃないんですか?教えて頭いい人! - なぜ正規分布に「π」が現れるか

ここがどうしてf(x,y)=g(x)h(y)になるかがわからないです、、、別にg(x)+h(y)とかでもいいんじゃないんですか?教えて頭いい人!

なぜ正規分布に「π」が現れるか
2024年03月17日  @warabimochisan-o2c 様 
00:14:59 - 00:25:00
動画始まって早くもめちゃくちゃ興味深いこと言ってて震えた - 中心極限定理とは何か? 【正規分布が現れるとき・確率】

動画始まって早くもめちゃくちゃ興味深いこと言ってて震えた

中心極限定理とは何か? 【正規分布が現れるとき・確率】
2024年03月10日  @pinopino7502 様 
00:00:54 - 00:30:23
standard deviationのdではないでしょうか? - 中心極限定理とは何か? 【正規分布が現れるとき・確率】

standard deviationのdではないでしょうか?

中心極限定理とは何か? 【正規分布が現れるとき・確率】
2024年03月10日  @荒巻-b8m 様 
00:12:55 - 00:30:23
からの視覚化が分かりやすすぎるこの視覚化を作るために一体どれだけの時間とセンスが必要なのか… - 中心極限定理とは何か? 【正規分布が現れるとき・確率】

からの視覚化が分かりやすすぎるこの視覚化を作るために一体どれだけの時間とセンスが必要なのか…

中心極限定理とは何か? 【正規分布が現れるとき・確率】
2024年03月10日  @ano5041 様 
00:15:38 - 00:30:23
ここ見たら分かりますけどその2はσの方から出て来たものですよ - 中心極限定理とは何か? 【正規分布が現れるとき・確率】

ここ見たら分かりますけどその2はσの方から出て来たものですよ

中心極限定理とは何か? 【正規分布が現れるとき・確率】
2024年03月10日  @vonneumann6161 様 
00:18:15 - 00:30:23
ここ、考えてみれば殆ど1か6かのコイントスを行ってる感じだから5の間隔で確率分布が大きくなるのは当たり前なんだなあ 言うなればN=10じゃ解像度が足りてないとでもいうか - 中心極限定理とは何か? 【正規分布が現れるとき・確率】

ここ、考えてみれば殆ど1か6かのコイントスを行ってる感じだから5の間隔で確率分布が大きくなるのは当たり前なんだなあ 言うなればN=10じゃ解像度が足りてないとでもいうか

中心極限定理とは何か? 【正規分布が現れるとき・確率】
2024年03月10日  @r-00x28 様 
00:22:13 - 00:30:23
314159と271828と161803の意味は分かるけど466920の意味だけ分からない…… - 「確率0」は「不可能」ではない | 確率密度

314159と271828と161803の意味は分かるけど466920の意味だけ分からない……

「確率0」は「不可能」ではない | 確率密度
2024年02月02日  @keyting2 様 
00:01:31 - 00:09:22
零一円周率自然対数の底第一ファイゲンバウム定数黄金比 - 「確率0」は「不可能」ではない | 確率密度

零一円周率自然対数の底第一ファイゲンバウム定数黄金比

「確率0」は「不可能」ではない | 確率密度
2024年02月02日  @うぃるむ-y8p 様 
00:02:13 - 00:09:22
PDF?! - 「確率0」は「不可能」ではない | 確率密度

PDF?!

「確率0」は「不可能」ではない | 確率密度
2024年02月02日  @そらぞめ 様 
00:04:55 - 00:09:22
「野生の確率密度関数」ってワード好き - 「確率0」は「不可能」ではない | 確率密度

「野生の確率密度関数」ってワード好き

「確率0」は「不可能」ではない | 確率密度
2024年02月02日  @bump_gibier_ 様 
00:05:00 - 00:09:22
野生の確率密度関数ww🤣 - 「確率0」は「不可能」ではない | 確率密度

野生の確率密度関数ww🤣

「確率0」は「不可能」ではない | 確率密度
2024年02月02日  @0_u-g7u 様 
00:05:00 - 00:09:22
同じ無限でも可算と連続で話が変わるのが興味深いですね。hは有理数であると仮定した場合はどうなるのだろう……? - 「確率0」は「不可能」ではない | 確率密度

同じ無限でも可算と連続で話が変わるのが興味深いですね。hは有理数であると仮定した場合はどうなるのだろう……?

「確率0」は「不可能」ではない | 確率密度
2024年02月02日  @さしす-q2y 様 
00:05:47 - 00:09:22
「有り得る結果はたくさんあるのだけれど、それら一つ一つの確率はゼロ」まさにずっと疑問に思っていたことに当てはまる表現に出会ってスッキリしました - 「確率0」は「不可能」ではない | 確率密度

「有り得る結果はたくさんあるのだけれど、それら一つ一つの確率はゼロ」まさにずっと疑問に思っていたことに当てはまる表現に出会ってスッキリしました

「確率0」は「不可能」ではない | 確率密度
2024年02月02日  @Nori-fg5xn 様 
00:08:01 - 00:09:22
/ - 畳み込みの仕組み | Convolution

/

畳み込みの仕組み | Convolution
2024年01月26日  @バットマンの悪役みたいな人 様 
00:00:02 - 00:13:18
〜 ドミノ・ピザ - 畳み込みの仕組み | Convolution

〜 ドミノ・ピザ

畳み込みの仕組み | Convolution
2024年01月26日  @fujishin6281 様 
00:02:20 - 00:22:17
「もしよかったらお好きなプログラミング言語で確かめて」普通にある前提で言うんじゃないよwMSX-BASIC。 - 畳み込みの仕組み | Convolution

「もしよかったらお好きなプログラミング言語で確かめて」普通にある前提で言うんじゃないよwMSX-BASIC。

畳み込みの仕組み | Convolution
2024年01月26日  @MTPAUL72 様 
00:06:50 - 00:22:17
「レンズの焦点をずらした時により近いようなぼかしの効果が得られます」焦点が合ってない時のボケ方は、中心に重み付けした状態に近いわけではありません。参照するグリッドが円形(レンズの絞りの形)で、重み付けが無く、そして範囲が広い場合に近いボケ方になります。玉ボケの写真を見ると、重み付けにより中心が濃いなんてこともなく、単純に濃淡の無い(重み付けの無い)円になっているのがわかると思います。焦点が合ってない時のようなぼかしをする時に、ガウスぼかしを使うのは間違い。 - 畳み込みの仕組み | Convolution

「レンズの焦点をずらした時により近いようなぼかしの効果が得られます」焦点が合ってない時のボケ方は、中心に重み付けした状態に近いわけではありません。参照するグリッドが円形(レンズの絞りの形)で、重み付けが無く、そして範囲が広い場合に近いボケ方になります。玉ボケの写真を見ると、重み付けにより中心が濃いなんてこともなく、単純に濃淡の無い(重み付けの無い)円になっているのがわかると思います。焦点が合ってない時のようなぼかしをする時に、ガウスぼかしを使うのは間違い。

畳み込みの仕組み | Convolution
2024年01月26日  @mkwur 様 
00:10:19 - 00:22:17
有名な「ガウスぼかし」って、そういうことだったのか! - 畳み込みの仕組み | Convolution

有名な「ガウスぼかし」って、そういうことだったのか!

畳み込みの仕組み | Convolution
2024年01月26日  @tsurumy 様 
00:10:23 - 00:22:17
日本語の高速フーリエ変換これが一番良いと思う。 - 畳み込みの仕組み | Convolution

日本語の高速フーリエ変換これが一番良いと思う。

畳み込みの仕組み | Convolution
2024年01月26日  @バットマンの悪役みたいな人 様 
00:13:18 - 00:22:17
実際に計算して係数c0,c1を導出するときに、この値が複素数になりそう。問題ないの?教えてえろい人 - 畳み込みの仕組み | Convolution

実際に計算して係数c0,c1を導出するときに、この値が複素数になりそう。問題ないの?教えてえろい人

畳み込みの仕組み | Convolution
2024年01月26日  @soukyokusen3785 様 
00:19:14 - 00:22:17
各色の部分の総面積って発散するんじゃなかったっけ・・・? - 突然崩れるパターン | ボールウェイン積分

各色の部分の総面積って発散するんじゃなかったっけ・・・?

突然崩れるパターン | ボールウェイン積分
2024年01月19日  @jjjj-ce8tr 様 
00:01:41 - 00:17:02
平均ってどう計算するんですか? - 突然崩れるパターン | ボールウェイン積分

平均ってどう計算するんですか?

突然崩れるパターン | ボールウェイン積分
2024年01月19日  @p0kMNyziCA-o5r 様 
00:05:25 - 00:17:02
ここからの内容は - 突然崩れるパターン | ボールウェイン積分

ここからの内容は

突然崩れるパターン | ボールウェイン積分
2024年01月19日  @Hatsukaze_Rina 様 
00:09:31 - 00:17:02
なるほど、ここで微分すふからシグモイド関数よりもReLU関数を使った方が計算が簡単になるのか それでReLUの方が上手くいく場合もあるってことね - 誤差逆伝播と微積分 | Chapter 4, ニューラルネットワークの仕組み

なるほど、ここで微分すふからシグモイド関数よりもReLU関数を使った方が計算が簡単になるのか それでReLUの方が上手くいく場合もあるってことね

誤差逆伝播と微積分 | Chapter 4, ニューラルネットワークの仕組み
2023年12月08日  @wd.eclairgreen 様 
00:04:23 - 00:09:58
これは、各層における重みを、そこで大きさが最大となる重みの値×何かしらの定数で規格化した値によって調整するということでしょうか? - 誤差逆伝播法(バックプロパゲーション) | Chapter 3, ニューラルネットワークの仕組み

これは、各層における重みを、そこで大きさが最大となる重みの値×何かしらの定数で規格化した値によって調整するということでしょうか?

誤差逆伝播法(バックプロパゲーション) | Chapter 3, ニューラルネットワークの仕組み
2023年12月02日  @eik7572 様 
00:06:58 - 00:12:49
パイモン達がおこで草 - 誤差逆伝播法(バックプロパゲーション) | Chapter 3, ニューラルネットワークの仕組み

パイモン達がおこで草

誤差逆伝播法(バックプロパゲーション) | Chapter 3, ニューラルネットワークの仕組み
2023年12月02日  @徳川慶喜-u6o 様 
00:11:33 - 00:12:49