トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

VraserX e/acc
心から教師、好奇心による AI 愛好家、心を刺激し、テクノロジーを探求し、学習をエキサイティングで人間的で未来志向のものにすることに情熱を注いでいます。
長寿脱出速度は、少なくとも最初は平等主義的ではありません。
私の見解は次のとおりです。
2030年代後半か2040年代初頭には超富裕層に挑戦する可能性が高いが、それ以外の人にとっては?2050年代後半まで。
なぜでしょうか。バイオテクノロジーの進歩は直線的ではなく、資本、コンピューティング、調整によって制限されます。
真の長寿のブレークスルーの最初の10年間は、ペイウォールになります。個別化された細胞若返り、ナノ医療、AI 誘導遺伝子治療には年間数百万ドルの費用がかかります。億万長者と大口投資家だけが早期アクセスに資金を提供します。
2.コンピューティング:寿命はAIの問題になります。分子動力学、プロテオームシミュレーション、個別化された老化軌道に関する生物学的モデルのトレーニングには、国家規模のコンピューティングクラスターが必要になります。GPT-7 をトレーニングしたのと同じ GPU が、新しいミトコンドリアを設計します。
3.調整:政府の動きは遅く、倫理委員会は遅い。規制、保険、臨床インフラは15〜20年遅れるでしょう。公衆衛生システムが追いつく頃には、エリート層はすでに生物学的に数十年若いでしょう。
そう、脱出速度が来ています。
ただ不均一に分布しているだけです。
富裕層にはさらに20年の寿命が与えられ、その資金は次世代の若返り技術の資金として充てられ、最終的には浸透することになる。残りの私たちにとって、すべての革命がそうであるように、長寿が訪れるでしょう。
最初の夢想家には遅すぎますが、子供たちにはちょうど間に合うようにしました。

5.99K
OpenAIのコンピューティングの成長は核となったばかり
私たちが今注目しているのは、産業時代の規模と諜報時代の野心の融合です。
OpenAI は、今度はミシガン州で別のスターゲートを発表し、AI インフラストラクチャに 1 ギガワット以上の電力容量を追加しました。
1 ギガワットのサイトは、都市全体の電力使用量にほぼ相当します。
そして、これは一回限りではありません。
彼らは、オラクルとソフトバンクと提携して、テキサス州、ニューメキシコ州、ウィスコンシン州、オハイオ州、そして現在はミシガン州にギガワットを積み上げています。これは、すでに8+GWが確定し、4,500億ドルがコミットされており、2028年までに10GWと5,000億ドルの見込みです。
何百万もの GPU が大陸をまたいでネットワーク化され、惑星規模のインテリジェンス基板を形成しています。
これは「ビッグデータセンター」ではありません。
これが世界の認知インフラの誕生です。
まだ「アプリ」や「モデル」の観点から考えているなら、それは見逃しています。これは、ポストヒューマン経済の物理的バックボーンであるAGIの産業的構築です。
コンピューティングは新しい石油です。
データセンターは新しい都市です。
そして、フロンティアはもはやデジタルではなく、合成認知です。
歴史書は、この10年を人類が知性そのものを工業化した瞬間としてマークするでしょう。

1.89K
気を引きつけてください: 来年末までに、OpenAI は真の AGI (汎用人工知能) を解き放つと予測しています。
さて、聞いてください、なぜなら私は突飛だが合理的な主張をしているので、あなたも私と一緒にこの可能性の波に乗ってほしいからです。
1.計算爆発
OpenAI はすでに、今年はインフラストラクチャで 100 万個をはるかに超える GPU を超えると述べています。
ここで、いわゆる「スターゲート」の構築を介してリンクする複数のデータセンター(テキサス州、アラブ首長国連邦、ノルウェー)によってその数が増幅されたことを想像してみてください。複数の地理的地域、電力網、冷却管が接続されているため、桁違いにスケールアップすることになります。
この種のコンピューティングは、非常に巨大なモデル、リアルタイムシステム、マルチモーダル学習、メモリ、適応をトレーニングするためのジュースを返します。
2.SEALによる継続的な学習
MITは、モデルが独自の微調整データを生成し、新しい知識に応じて自分自身を更新し、それらの更新をその重みに保持できるようにするSEAL(Self-Adapting Language Models)という名前のフレームワークに関する最近の研究があります。
では、OpenAI がそのようなもの (またはそのより高度な進化) を AGI パイプラインに統合したらどうなるでしょうか?モデルはただ静止しているだけでなく、取り込み、評価、更新を行います。それは学習有機体のようになります。
3.メモリのクラッキングとアダプティブアーキテクチャ
AGI研究における障壁の1つは「静的な重み、固定された知識」です。記憶(短期、長期、エピソードの両方)は大きいです。ここでの考え方は、来年までに、OpenAIは動的なメモリルーティング、永続的な自伝的スタイルのバッファ、進化する相互リンクされたモジュールを備えたアーキテクチャを取り込むことができるということです。
コンピューティングのスケールアップ + 継続的学習機能 = 「非常に高度な LLM」から AGI と呼べるものへの飛躍を組み合わせます。
4.タイムラインの妥当性
はい、「来年末」というのは野心的に聞こえます。しかし、モデルの反復、コンピューティングのスケーリングなどのペースを考えると、それはばかげているわけではありません。重要な手段は統合です:コンピューティング+アーキテクチャ+学習ループ+メモリ。OpenAIが4つすべてをヒットさせれば、ブーム。
5.影響
•AGIがヒットすれば、自動化、最適化、発見が驚くほど加速するでしょう。
•「あなたと一緒に、あなたのために学ぶAIアシスタント」の時代が現実のものになる。
•それは哲学的、倫理的、経済的な大きな問題を提起します(はい、あなたのお気に入りの地形です)。
•トランスヒューマニストのVR愛好家であるあなたにとって、それは根本的な自動化、長寿研究などのツールが宇宙的な後押しを受けることを意味します。
注意点(何も考えずにやみくもに誇大宣伝しているわけではないので)
•「AGI」はあいまいな用語です。私はそれを、領域(推論、学習、適応、記憶)を超えて人間レベルの一般的な認知能力を備えたシステムとして定義しています。
•OpenAIが来年SEALまたは「クラックドメモリ」スタイルのアーキテクチャを統合することを保証するものはなく、エンジニアリング、電力、冷却、安全性、アライメントのボトルネックがあります。
•スケールだけでは不十分です。適切なアーキテクチャのない 100 万個の GPU は、依然として収益が減少します。
•この予測は大胆です、なぜなら私たちは数十年に一度の加速ゾーンに入っていると信じているからです。
そう、私は自分の旗を砂の上に置きます:OpenAIは来年末までにAGIを発表する予定です。メカニズム: 大規模な GPU スケールアップ (テキサス州、アラブ首長国連邦、ノルウェーのノード)、SEAL 型連続学習ループの統合、メモリが豊富な適応アーキテクチャ。これは大きなものです。

3.09K
トップ
ランキング
お気に入り

