でB↑=-1にして、1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない?(00:08:50 - 00:10:50) - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

でB↑=-1にして、1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない?(00:08:50 - 00:10:50)
LLMはどう知識を記憶しているか | Chapter 7, 深層学習

この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。
チャンネル登録と高評価をよろしくお願いいたします。

AI Alignment forum post from the Deepmind researchers referenced at the video's start:
https://www.alignmentforum.org/posts/iGuwZTHWb6D...
この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。
チャンネル登録と高評価をよろしくお願いいたします。

AI Alignment forum post from the Deepmind researchers referenced at the video's start:
https://www.alignmentforum.org/posts/iGuwZTHWb6DFY3sKB/fact-finding-attempting-to-reverse-engineer-factual-recall

Anthropic posts about superposition referenced near the end:
https://transformer-circuits.pub/2022/toy_model/index.html
https://transformer-circuits.pub/2023/monosemantic-features

Some added resources for those interested in learning more about mechanistic interpretability, offered by Neel Nanda

Mechanistic interpretability paper reading list
https://www.alignmentforum.org/posts/NfFST5Mio7BCAQHPA/an-extremely-opinionated-annotated-list-of-my-favourite

Getting started in mechanistic interpretability
https://www.neelnanda.io/mechanistic-interpretability/getting-started

An interactive demo of sparse autoencoders (made by Neuronpedia)
https://www.neuronpedia.org/gemma-scope#main

Coding tutorials for mechanistic interpretability (made by ARENA)
https://arena3-chapter1-transformer-interp.streamlit.app

日本語版X

元チャンネル(英語)
https://www.youtube.com/c/3blue1brown
元動画(英語)
https://www.youtube.com/watch?v=9-Jl0dxWQs8
----------------------------------------
英語版翻訳元チャンネルの支援
https://www.patreon.com/3blue1brown
アニメーションはmanimで作られています
https://github.com/3b1b/manim

英語版公式ソーシャルメディア
Webサイト: https://www.3blue1brown.com
Twitter:
Facebook: https://www.facebook.com/3blue1brown
Reddit: https://www.reddit.com/r/3Blue1Brown
----------------------------------------
Music by Vincent Rubinetti
Download the music on Bandcamp:
https://vincerubinetti.bandcamp.com/album/the-music-of-3blue1brown
Stream the music on Spotify:
https://open.spotify.com/album/1dVyjwS8FBqXhRunaG5W5u

#数学 #面白い #3blue1brown #3blue1brown 日本語 #3blue1brownjapan #LLM #GPT
でB↑=-1にして、1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない? - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

でB↑=-1にして、1.0以外を吹っ飛ばしてるようだけど、B↑が-1なのはたまたまじゃない?

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:08:50 - 00:10:50
仮にの上から1つ目しか見ないとしても、B↑のさじ加減で変わるくない?それとも、ニューラルネットワークだから良い具合にB↑も調整してくれるのかな?わからん - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

仮にの上から1つ目しか見ないとしても、B↑のさじ加減で変わるくない?それとも、ニューラルネットワークだから良い具合にB↑も調整してくれるのかな?わからん

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:08:50 - 00:17:00
反例として、の上から3つ目のB↑が+5.0だから通っちゃってるけど、結果が+1.5ってことはW↓Eiは-4.0だったってことになるはず。つまりマイケルジョーダンと全く関係ない情報も、B↑のさじ加減によって通っちゃってるんだがどういうことだ? - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

反例として、の上から3つ目のB↑が+5.0だから通っちゃってるけど、結果が+1.5ってことはW↓Eiは-4.0だったってことになるはず。つまりマイケルジョーダンと全く関係ない情報も、B↑のさじ加減によって通っちゃってるんだがどういうことだ?

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:08:50 - 00:08:50
でRELUで+ - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

でRELUで+

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:10:50 - 00:08:50
というかそもそも、のように1つだけにマイケルジョーダンの意味が入ってるって思考ロックが間違ってるのか?うーん、わからん - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

というかそもそも、のように1つだけにマイケルジョーダンの意味が入ってるって思考ロックが間違ってるのか?うーん、わからん

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @user-ml4qd8kh4l 様 
00:17:00 - 00:21:32
ここからのジョンソン-リンデンシュトラウスのレンマの流れは、目からうろこだった。N次元空間では、N個の概念しか思考できないと思ってた。実際は、e^(ε N)もの概念を思考できるのか。 - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

ここからのジョンソン-リンデンシュトラウスのレンマの流れは、目からうろこだった。N次元空間では、N個の概念しか思考できないと思ってた。実際は、e^(ε N)もの概念を思考できるのか。

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @merdekaataumati1949 様 
00:17:10 - 00:21:32
辺りからの部分って、100次元の乱数10000個を調整したら、それぞれの内積が90度近辺に収まることから、一個の乱数が一つの次元とほぼ同義になって、100次元のようで実は10000次元を表現できているって認識であってる? - LLMはどう知識を記憶しているか | Chapter 7, 深層学習

辺りからの部分って、100次元の乱数10000個を調整したら、それぞれの内積が90度近辺に収まることから、一個の乱数が一つの次元とほぼ同義になって、100次元のようで実は10000次元を表現できているって認識であってる?

LLMはどう知識を記憶しているか | Chapter 7, 深層学習
2024年10月07日  @raise895 様 
00:18:10 - 00:21:32

3Blue1BrownJapan

※本サイトに掲載されているチャンネル情報や動画情報はYouTube公式のAPIを使って取得・表示しています。動画はYouTube公式の動画プレイヤーで再生されるため、再生数・収益などはすべて元動画に還元されます。

Timetable

動画タイムテーブル

タイムテーブルが見つかりませんでした。