動画数:70件

() OP

() Netflixはどう始まったか

() ブロックバスターとの戦争開始

() ブロックバスターの本気とスパイ行為

() トータル・アクセスによって瀕死状態

() Netflixの降参宣言

() ブロックバスターが自滅

() なぜ新CEOは対応できなかったのか

() Googleラリー・ペイジの先見の明

() 今回のテーマ: AnthropicのAlignment Scienceチーム

() Alignment Scienceチーム: ヤン・ライカ

() Anthropicのアラインメント研究 3選

() Anthropicが今注力している4つの研究領域

() Anthropicこそアライメント研究の最前線 !?

() ヤン・ライカからOpenAIへの警告

() まとめ

() 前回のおさらい

() 起業家がイーロンの手法を真似するなら

() ここでしかできない仕事×詳しさがイーロンルートへの道?

() サム・アルトマンのパターン

() スティーブ・ジョブズのパターン

() スーパーパワーに集中する

() 今回のテーマ「AIをどうやって制御するのか」

() 今回の参考文献『The Urgency of Interpretability』

() AIはブラックボックスである

() 「AIの内部構造の解明」で解決する3つの問題

() モデル解明(Model Interpretability)研究の今

() Superalignmentの手法: AIモデルの脳スキャン

() 我々人類のやるべきこと - 1.AI安全性研究にもっと取り組む

() 我々人類のやるべきこと - 2.AI安全性についてのルールを作る

() 我々人類のやるべきこと - 3.AI開発においてアメリカのリードを広げる

() 我々人類のやるべきこと - まとめ

() まとめ

() AnthropicのAlignment研究

() OP

() 優れた人材を集める能力、見極め力

() どう100%以上の力を引き出すのか?

() イーロンのチームの士気をあげる働き方

() リーダーによって引き出される力が変わる

() 実際にこのやり方がワークするのか?

() イーロンのストイックエピソード

() イントロ

() AIを"誰が"制御するのか問題

() サム・アルトマンは次の覇権国家を作ろうとしている !?

() サム・アルトマンのキャリア観

() 次の覇権国家を作るならAIしかない?

() OpenAIが力を持ちすぎてしまうリスクがある?

() サム・アルトマンを信じるしかない !?

() 国家を作るパーツは揃っている !?

() 史上最長の国家を見据えている !?

() 10年後のOpenAIの時価総額 !?

() サム・アルトマン 銀河帝国への野望 !?

() OP

() SpaceXの創業期

() SpaceX初期のマッチョな雰囲気

() ロケットの打ち上げ場所でのハードシングス

() ロケット打ち上げと教訓

() 3回目の打ち上げと絶望的ピンチ

() 4回目の打ち上げと奇跡の時間

() 今回のテーマ: 『AI 2027』の感想戦

() 『AI 2027』の3つの見どころ

() 「AI研究をするAI」まではロードマップに含まれている !?

() 2028年以降はSFにならざるを得ない !?

() 教訓: Superalignmentしかない !?

() 1つのシナリオとして想像しておくことに価値はある

() 次回予告

() OP

() CUDAを生んだ直接のきっかけ

() どうプログラマブルシェーダーで圧勝した?

() Microsoftとの連携の裏話

() ジェンスンのNo.1を獲ることへのこだわり

() トップでいることで掴める市場機会

() No.1だったから次の成長を掴んだ他事例

() 今回のテーマ

() 今回の参考文献『AI 2027』

() 『AI 2027』の前提と注意点

() 『AI 2027』の主題

() 2025年~2026年: 現在からAIバブルまで

() 2027年: AGIから知能爆発、そして分岐点へ

() 2027年の分岐点以降の2つのシナリオ

() シナリオ1: Superalignmentができない場合

() シナリオ2: Superalignmentが成功する場合
