3Blue1BrownJapan

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。動画はYouTube公式の動画プレイヤーで再生されるため、再生数・収益などはすべて元動画に還元されます。

Timetable

動画タイムテーブル

動画数:59件

実際に見たことのあるやり取り:「ベクトルって何?」『ベクトルは、ベクトルです』 - Chapter 16 抽象ベクトル空間 | 線形代数のエッセンス

実際に見たことのあるやり取り:「ベクトルって何?」『ベクトルは、ベクトルです』

Chapter 16 抽象ベクトル空間 | 線形代数のエッセンス
2023年11月22日  @kmish5100 様 
00:14:03 - 00:16:26
1)の性質はn次固有多項式のn-1次項の係数についての恒等式から求められます - Chapter 15 固有値の計算の小技 | 線形代数のエッセンス

1)の性質はn次固有多項式のn-1次項の係数についての恒等式から求められます

Chapter 15 固有値の計算の小技 | 線形代数のエッセンス
2023年11月12日  @kmish5100 様 
00:02:18 - 00:12:58
 (1) - Chapter 15 固有値の計算の小技 | 線形代数のエッセンス

(1)

Chapter 15 固有値の計算の小技 | 線形代数のエッセンス
2023年11月12日  @ふきのとう-i6p 様 
00:04:46 - 00:04:46
 (3) - Chapter 15 固有値の計算の小技 | 線形代数のエッセンス

(3)

Chapter 15 固有値の計算の小技 | 線形代数のエッセンス
2023年11月12日  @ふきのとう-i6p 様 
00:04:46 - 00:12:58
4:46 (2) - Chapter 15 固有値の計算の小技 | 線形代数のエッセンス

4:46 (2)

Chapter 15 固有値の計算の小技 | 線形代数のエッセンス
2023年11月12日  @ふきのとう-i6p 様 
00:04:46 - 00:04:46
途中で止めるのおもろい - Chapter 15 固有値の計算の小技 | 線形代数のエッセンス

途中で止めるのおもろい

Chapter 15 固有値の計算の小技 | 線形代数のエッセンス
2023年11月12日  @じゃがてま 様 
00:05:57 - 00:12:58
ピ↓(ピッ↑) - Chapter 15 固有値の計算の小技 | 線形代数のエッセンス

ピ↓(ピッ↑)

Chapter 15 固有値の計算の小技 | 線形代数のエッセンス
2023年11月12日  @koko8687 様 
00:06:05 - 00:12:58
の右下の文字、あまりにも一瞬でわかりづらいので、文字を書き起こしておきました。興味深いことに複素数平面でiの掛け算が90度の回転のように見えることはiが2次元の実ベクトルのこの変換の固有値であることと関係しています。この詳細はこの動画の範疇を超えていますが、複素数の固有値は変換におけるある種の回転に対応していると言えるでしょう。 - Chapter 14 固有ベクトルと固有値 | 線形代数のエッセンス

の右下の文字、あまりにも一瞬でわかりづらいので、文字を書き起こしておきました。興味深いことに複素数平面でiの掛け算が90度の回転のように見えることはiが2次元の実ベクトルのこの変換の固有値であることと関係しています。この詳細はこの動画の範疇を超えていますが、複素数の固有値は変換におけるある種の回転に対応していると言えるでしょう。

Chapter 14 固有ベクトルと固有値 | 線形代数のエッセンス
2023年11月11日  @study_math 様 
00:10:43 - 00:15:59
ここ3人目だけまだ動画見てないの可愛い - Chapter13 基底変換 | 線形代数のエッセンス

ここ3人目だけまだ動画見てないの可愛い

Chapter13 基底変換 | 線形代数のエッセンス
2023年10月13日  @名字名前-s8t 様 
00:05:20 - 00:12:44
からのアニメーションは、背景に元のグリッドを残した方が分かりやすいかと思います。というか、自分はここで一回躓きました。あくまでJenniferが表そうとしているベクトルを、「私たち」の座標系で見た時のベクトルが、行列の積の結果です。 - Chapter13 基底変換 | 線形代数のエッセンス

からのアニメーションは、背景に元のグリッドを残した方が分かりやすいかと思います。というか、自分はここで一回躓きました。あくまでJenniferが表そうとしているベクトルを、「私たち」の座標系で見た時のベクトルが、行列の積の結果です。

Chapter13 基底変換 | 線形代数のエッセンス
2023年10月13日  @田中_田中 様 
00:06:26 - 00:12:44
gridの翻訳/言語の翻訳()ベクトルの基底変換(動画前半)/線形変換の基底変換(動画後半)の違いをしっかり区別することがポイントだと思う - Chapter13 基底変換 | 線形代数のエッセンス

gridの翻訳/言語の翻訳()ベクトルの基底変換(動画前半)/線形変換の基底変換(動画後半)の違いをしっかり区別することがポイントだと思う

Chapter13 基底変換 | 線形代数のエッセンス
2023年10月13日  @kmish5100 様 
00:06:51 - 00:12:44
「こら!この出力は殆どのニューロンが0で!このニューロンだけ1になるようなアクティベーションになってないとダメで!」まではそこそこ怒ってるのに、「君の出した答えは全くのゴミです。」で急に冷静になって耐え切れなかった。 - 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

「こら!この出力は殆どのニューロンが0で!このニューロンだけ1になるようなアクティベーションになってないとダメで!」まではそこそこ怒ってるのに、「君の出した答えは全くのゴミです。」で急に冷静になって耐え切れなかった。

深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
2023年09月08日  @飽き性-h7n 様 
00:03:43 - 00:19:41
ひどい… - 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

ひどい…

深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
2023年09月08日  @lonakoyahepl389 様 
00:03:43 - 00:19:41
なぜコスト関数の入力が1万3千と説明されているのでしょうか?ニューラルネットワーク側の出力の数、つまり10という数がコスト関数側の入力数になるのではないですか? - 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

なぜコスト関数の入力が1万3千と説明されているのでしょうか?ニューラルネットワーク側の出力の数、つまり10という数がコスト関数側の入力数になるのではないですか?

深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
2023年09月08日  @ああ-k7o9i 様 
00:05:20 - 00:19:41
〜 - 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
2023年09月08日  @そらいろ-u9f 様 
00:12:55 - 00:19:41
このラベル付けをシャッフルした話だけ意味わからん - 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

このラベル付けをシャッフルした話だけ意味わからん

深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
2023年09月08日  @Semp_ukiuki 様 
00:17:35 - 00:19:41
最後の間違ったラベルを付けて学習させてもうまくいったってのは、つまりライオンの画像を見てフォークと分類できるようなモデルが作れたってこと? - 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

最後の間違ったラベルを付けて学習させてもうまくいったってのは、つまりライオンの画像を見てフォークと分類できるようなモデルが作れたってこと?

深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
2023年09月08日  @乃乃乃乃乃naonao 様 
00:17:40 - 00:19:41
メモ - ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

メモ

ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
2023年09月01日  @coffeemilk6347 様 
00:07:30 - 00:17:53
難しくなってきた - ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

難しくなってきた

ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
2023年09月01日  @みどり-t3d 様 
00:11:08 - 00:17:53
誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました - ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました

ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
2023年09月01日  @tamotsustop 様 
00:12:21 - 00:17:53
バイアスのベクトルの最後の添え字はnではなくkです - ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

バイアスのベクトルの最後の添え字はnではなくkです

ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
2023年09月01日 
00:14:16 - 00:17:53
ここ b0...bn だとW*aの計算後に出る列と合わなくないですか? - ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

ここ b0...bn だとW*aの計算後に出る列と合わなくないですか?

ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
2023年09月01日  @wswsan 様 
00:14:16 - 00:17:53
えらく単純化したなぁ。これでいいのか。 - ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

えらく単純化したなぁ。これでいいのか。

ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
2023年09月01日  @HEADJOCKAA 様 
00:17:00 - 00:17:53
【量子力学】〈行列力学と波動函数〉〈ライブラリの✨最適化✨『量子コンピューター重ね合わせ❗️💡の✨原理』〉『出汁醤油と出汁道楽✨』 - ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

【量子力学】〈行列力学と波動函数〉〈ライブラリの✨最適化✨『量子コンピューター重ね合わせ❗️💡の✨原理』〉『出汁醤油と出汁道楽✨』

ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
2023年09月01日  @小池秀和-l9y 様 
00:17:13 - 00:17:53
)〈青チャート、数研出版〉にあります。 - 激ムズ数え上げパズルと驚きの解法

)〈青チャート、数研出版〉にあります。

激ムズ数え上げパズルと驚きの解法
2023年08月22日  @小池秀和-l9y 様 
00:10:40 - 00:33:59
偶数の場合は  ですでに説明されていますf(x) = Π[n=0..2000] (1+x^n) として(1/2) (f(1) - f(-1)) = 2¹⁹⁹⁹ です - 激ムズ数え上げパズルと驚きの解法

偶数の場合は ですでに説明されていますf(x) = Π[n=0..2000] (1+x^n) として(1/2) (f(1) - f(-1)) = 2¹⁹⁹⁹ です

激ムズ数え上げパズルと驚きの解法
2023年08月22日  @magurofly 様 
00:16:03 - 00:33:59
, 行列の3行目は正しくは"v1 * w2 - w1 * v2"です。 - Chapter 11 一次変換と外積 | 線形代数のエッセンス

, 行列の3行目は正しくは"v1 * w2 - w1 * v2"です。

Chapter 11 一次変換と外積 | 線形代数のエッセンス
2023年08月20日 
00:01:44 - 00:12:16
〜について、そもそも3次元から1次元への変換が線形であることとは何なのでしょう。(以下、次元をDと略します)多分、このシリーズの内積で出てきた、「2D→1Dの変換について、2次元平面の直線上の等間隔な点が、変換後も等間隔になるなら線形」に似たものがあるんでしょうね。もし「ある3D→1Dの変換が、3次元空間内の直線上の点を等間隔なままになるように移す時、その変換は線形」なら、体積を考えることで線形であることが分かりますね。 - Chapter 11 一次変換と外積 | 線形代数のエッセンス

〜について、そもそも3次元から1次元への変換が線形であることとは何なのでしょう。(以下、次元をDと略します)多分、このシリーズの内積で出てきた、「2D→1Dの変換について、2次元平面の直線上の等間隔な点が、変換後も等間隔になるなら線形」に似たものがあるんでしょうね。もし「ある3D→1Dの変換が、3次元空間内の直線上の点を等間隔なままになるように移す時、その変換は線形」なら、体積を考えることで線形であることが分かりますね。

Chapter 11 一次変換と外積 | 線形代数のエッセンス
2023年08月20日  @田中_田中 様 
00:06:10 - 00:12:16
の変換が線形であることの証明は本家のコメ欄で解説されてるからわからない人いたらみてみるといいかもしれない。 - Chapter 11 一次変換と外積 | 線形代数のエッセンス

の変換が線形であることの証明は本家のコメ欄で解説されてるからわからない人いたらみてみるといいかもしれない。

Chapter 11 一次変換と外積 | 線形代数のエッセンス
2023年08月20日  @user-fn2xd6vu5q 様 
00:06:10 - 00:12:16
からの説明で「P,V,Wで作られる平行六面体の体積~」とありますけどなぜ[x,y,z]でなくPとしているのでしょうか?流れでは[x,y,z],V,Wで作られる平行六面体の体積を考えようとしていたと思いますしそもそももとの動画でもPとは言っていないですよね? - Chapter 11 一次変換と外積 | 線形代数のエッセンス

からの説明で「P,V,Wで作られる平行六面体の体積~」とありますけどなぜ[x,y,z]でなくPとしているのでしょうか?流れでは[x,y,z],V,Wで作られる平行六面体の体積を考えようとしていたと思いますしそもそももとの動画でもPとは言っていないですよね?

Chapter 11 一次変換と外積 | 線形代数のエッセンス
2023年08月20日  @user-zo2xe2om3u 様 
00:09:22 - 00:12:16
説明1回じゃ分からなかった・・・pとv,wは垂直だから、xとpの間の角をθとすればpへの射影の長さがx cosθ、x(の終点)のvw平面からの高さがx sin(π/2 ± θ) = x cosθ で、両者イコールってことかだからxからpへの射影が、一方では平行六面体の高さにもなっているという - Chapter 11 一次変換と外積 | 線形代数のエッセンス

説明1回じゃ分からなかった・・・pとv,wは垂直だから、xとpの間の角をθとすればpへの射影の長さがx cosθ、x(の終点)のvw平面からの高さがx sin(π/2 ± θ) = x cosθ で、両者イコールってことかだからxからpへの射影が、一方では平行六面体の高さにもなっているという

Chapter 11 一次変換と外積 | 線形代数のエッセンス
2023年08月20日  @tree_folk_3000 様 
00:10:46 - 00:12:16