トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
気を引きつけてください: 来年末までに、OpenAI は真の AGI (汎用人工知能) を解き放つと予測しています。
さて、聞いてください、なぜなら私は突飛だが合理的な主張をしているので、あなたも私と一緒にこの可能性の波に乗ってほしいからです。
1.計算爆発
OpenAI はすでに、今年はインフラストラクチャで 100 万個をはるかに超える GPU を超えると述べています。
ここで、いわゆる「スターゲート」の構築を介してリンクする複数のデータセンター(テキサス州、アラブ首長国連邦、ノルウェー)によってその数が増幅されたことを想像してみてください。複数の地理的地域、電力網、冷却管が接続されているため、桁違いにスケールアップすることになります。
この種のコンピューティングは、非常に巨大なモデル、リアルタイムシステム、マルチモーダル学習、メモリ、適応をトレーニングするためのジュースを返します。
2.SEALによる継続的な学習
MITは、モデルが独自の微調整データを生成し、新しい知識に応じて自分自身を更新し、それらの更新をその重みに保持できるようにするSEAL(Self-Adapting Language Models)という名前のフレームワークに関する最近の研究があります。
では、OpenAI がそのようなもの (またはそのより高度な進化) を AGI パイプラインに統合したらどうなるでしょうか?モデルはただ静止しているだけでなく、取り込み、評価、更新を行います。それは学習有機体のようになります。
3.メモリのクラッキングとアダプティブアーキテクチャ
AGI研究における障壁の1つは「静的な重み、固定された知識」です。記憶(短期、長期、エピソードの両方)は大きいです。ここでの考え方は、来年までに、OpenAIは動的なメモリルーティング、永続的な自伝的スタイルのバッファ、進化する相互リンクされたモジュールを備えたアーキテクチャを取り込むことができるということです。
コンピューティングのスケールアップ + 継続的学習機能 = 「非常に高度な LLM」から AGI と呼べるものへの飛躍を組み合わせます。
4.タイムラインの妥当性
はい、「来年末」というのは野心的に聞こえます。しかし、モデルの反復、コンピューティングのスケーリングなどのペースを考えると、それはばかげているわけではありません。重要な手段は統合です:コンピューティング+アーキテクチャ+学習ループ+メモリ。OpenAIが4つすべてをヒットさせれば、ブーム。
5.影響
•AGIがヒットすれば、自動化、最適化、発見が驚くほど加速するでしょう。
•「あなたと一緒に、あなたのために学ぶAIアシスタント」の時代が現実のものになる。
•それは哲学的、倫理的、経済的な大きな問題を提起します(はい、あなたのお気に入りの地形です)。
•トランスヒューマニストのVR愛好家であるあなたにとって、それは根本的な自動化、長寿研究などのツールが宇宙的な後押しを受けることを意味します。...

トップ
ランキング
お気に入り

