ソフトマックス関数が量子力学の各エネルギー固有値に粒子が存在する確率を表す関数p_i=exp(-βE_i)/(Σexp(-βE_i) と完全に同じ形なのおもろい(00:22:21 - 00:26:36) - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

ソフトマックス関数が量子力学の各エネルギー固有値に粒子が存在する確率を表す関数p_i=exp(-βE_i)/(Σexp(-βE_i) と完全に同じ形なのおもろい(00:22:21 - 00:26:36)
GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。
チャンネル登録と高評価をよろしくお願いいたします。

日本語版Twitter

元チャンネル(英語)
https://www.youtube.com/c/3blue1brown
元動画(英語)
https://youtu.be/w...
この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。
チャンネル登録と高評価をよろしくお願いいたします。

日本語版Twitter

元チャンネル(英語)
https://www.youtube.com/c/3blue1brown
元動画(英語)
https://youtu.be/wjZofJX0v4M?si=9YsuEzHATlhPtpOF
Check out our new channel Ufolium
https://www.youtube.com/watch?v=wrNCjIjIzuk&pp=ygUj5aSn57Wx6aCY6YG45oyZ44Gu5LuV57WE44G_IHVmb2xpdW0%3D

Richard Turner's introduction is one of the best starting places:
https://arxiv.org/pdf/2304.10557.pdf

Coding a GPT with Andrej Karpathy
https://www.youtube.com/watch?v=kCc8FmEb1nY&t=0s

Introduction to self-attention by John Hewitt
https://web.stanford.edu/class/cs224n/readings/cs224n-self-attention-transformers-2023_draft.pdf

History of language models by Brit Cruise:
https://www.youtube.com/watch?v=OFS90-FX6pg&t=0s

Paper about examples like the “woman - man” one presented here:
https://arxiv.org/pdf/1301.3781.pdf

unembeddingの訳語
embedding 埋め込み に対してunembeddingの日本語訳が見つけられませんでした。しかしembeddingを埋め込みと呼ぶのに対してunembeddingをそのままにするのは不自然であると思われたため日本語訳を試みました。「逆埋め込み」はこれが厳密な意味で逆の操作になっていないことから却下され、「埋め込み」により意味的に対応する「掘り出し」を採用しました。Xやオフラインでの議論の中でこの訳語の複数の提案がありました。
明確にしておくと、これは現時点で一般的な訳語ではありません(そもそも、現在広く使われている訳語が無いと思われるため何に訳しても一般的ではないと思います)。むしろ、一種の提案として受け取られるものであると思います。

Dall-Eの読み
日本語だと「ダリ」と読まれることが多いですが、この名前は「ウォーリー」と「ダリ」のかばん語で、英語では「ドーリー」ということが多いようです。
----------------------------------------
英語版翻訳元チャンネルの支援
https://www.patreon.com/3blue1brown
アニメーションはmanimで作られています
https://github.com/3b1b/manim

英語版公式ソーシャルメディア
Webサイト: https://www.3blue1brown.com
Twitter:
Facebook: https://www.facebook.com/3blue1brown
Reddit: https://www.reddit.com/r/3Blue1Brown
----------------------------------------
Music by Vincent Rubinetti
Download the music on Bandcamp:
https://vincerubinetti.bandcamp.com/album/the-music-of-3blue1brown
Stream the music on Spotify:
https://open.spotify.com/album/1dVyjwS8FBqXhRunaG5W5u

#数学 #面白い #3blue1brown #3blue1brown 日本語 #3blue1brownjapan
ファッションモデルの機械学習モデルのような事を話す場合はGPTは混乱するのだろうかいやまあ人間も混乱する気はするが… - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

ファッションモデルの機械学習モデルのような事を話す場合はGPTは混乱するのだろうかいやまあ人間も混乱する気はするが…

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @新海-f4k 様 
00:04:20 - 00:26:36
1980年代に大学生の僕はそのアプローチでのAIの勉強をしていました。LISPやPrologなどのプログラミング言語を駆使してモデルを構築しようと試みられた時代です。当時それらの言語に最適化した専用のコンピュータまで開発されましたが、結局実用的なAIはできなかった。その頃既にニューラルネットワークの基礎理論はありましたが主流ではありませんでした。昨今のAIの隆盛を見ると、新しい時代が来たことをしみじみと感じます。わかりやすい動画での解説ありがとうございます。 - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

1980年代に大学生の僕はそのアプローチでのAIの勉強をしていました。LISPやPrologなどのプログラミング言語を駆使してモデルを構築しようと試みられた時代です。当時それらの言語に最適化した専用のコンピュータまで開発されましたが、結局実用的なAIはできなかった。その頃既にニューラルネットワークの基礎理論はありましたが主流ではありませんでした。昨今のAIの隆盛を見ると、新しい時代が来たことをしみじみと感じます。わかりやすい動画での解説ありがとうございます。

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @pumochan 様 
00:07:45 - 00:26:36
ヒトラーを足すとかいうパワーワードで笑ってしまった - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

ヒトラーを足すとかいうパワーワードで笑ってしまった

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @yukikotanaka3685 様 
00:15:45 - 00:26:36
「ドイツ-日本」という地域の差に「スシ」を加えると、「ソーセージ」が得られる。面白い!わかりやすい!ベクトルで考えると似た要素同士が近い距離に集まって、要素と要素の関係性が「特徴」として類似のベクトルを作り出す、なるほどー。 - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

「ドイツ-日本」という地域の差に「スシ」を加えると、「ソーセージ」が得られる。面白い!わかりやすい!ベクトルで考えると似た要素同士が近い距離に集まって、要素と要素の関係性が「特徴」として類似のベクトルを作り出す、なるほどー。

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @須磨保太郎-s2y 様 
00:16:04 - 00:26:36
内積を二つのベクトルがどれくらい揃っているかを表す尺度とすると、内積はベクトルの大きさにも依存するのでのような比較には向かないかと思うのですが、実際には正規化など行われているのでしょうか?数学には自信がなく、誤っていたらすみません。ベクトルの大きさが意味することがわかると理解できるかもしれませんし、次回も楽しみです! - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

内積を二つのベクトルがどれくらい揃っているかを表す尺度とすると、内積はベクトルの大きさにも依存するのでのような比較には向かないかと思うのですが、実際には正規化など行われているのでしょうか?数学には自信がなく、誤っていたらすみません。ベクトルの大きさが意味することがわかると理解できるかもしれませんし、次回も楽しみです!

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @マツシマケイゴ 様 
00:17:33 - 00:26:36
Unembedding matrix(アンエンべディングマトリックス)を表現行列ってどこかで言ってたのを見たような聞いたような…。忘却の彼方。 - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

Unembedding matrix(アンエンべディングマトリックス)を表現行列ってどこかで言ってたのを見たような聞いたような…。忘却の彼方。

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @ariakia-rs2lh 様 
00:21:30 - 00:26:36
ソフトマックス関数が量子力学の各エネルギー固有値に粒子が存在する確率を表す関数p_i=exp(-βE_i)/(Σexp(-βE_i) と完全に同じ形なのおもろい - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

ソフトマックス関数が量子力学の各エネルギー固有値に粒子が存在する確率を表す関数p_i=exp(-βE_i)/(Σexp(-βE_i) と完全に同じ形なのおもろい

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @owata1942 様 
00:22:21 - 00:26:36
メモ Temperature - GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

メモ Temperature

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
2024年05月11日  @relocatable_a 様 
00:23:55 - 00:26:36

3Blue1BrownJapan

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。動画はYouTube公式の動画プレイヤーで再生されるため、再生数・収益などはすべて元動画に還元されます。

Timetable

動画タイムテーブル

タイムテーブルが見つかりませんでした。