トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
AIモデルとホスティングプロバイダーの独立した分析 - ユースケースに最適なモデルとAPIプロバイダーを選択します
Mistralは新しい大型オープンウェイトモデル、Mistral Large 3(合計675B、アクティブ41B)と、3種類のMinistralモデル(3B、8B、14B)を発売しました
Mistralは4つのモデルすべてのInstruct(非推論)バリアントと、3つのMinistralモデルの推論バリアントをリリースしています。すべてのモデルはマルチモーダル入力に対応しており、現在@huggingfaceでApache 2.0ライセンスで利用可能です。発売前に、ミストラル・ラージ3と3つのミニストラルモデルのインストラルバリアントを評価しました。
MistralのArtificial Analysis Intelligence Indexで最も得点の高いモデルは、数か月前に9月にリリースされた独自のMagistral Medium 1.2です。これは、私たちが使う多くの評価でモデルに大きな優位性を与える理由です。Mistralによると、Mistral Large 3の推理型がすでに訓練中であり、近いうちに評価できることを楽しみにしています!
主なハイライト:
† 大規模および小型モデル:合計675B、41BがアクティブであるMistral Large 3は、2023年末から2024年初頭のMixtral 8x7Bおよび8x22B以来、Mistral初のオープンウェイト混合専門家モデルです。Ministralリリースには3B、8B、14Bのパラメータバリエーションが豊富に含まれています
† 主要なモデル(独自モデルを含む)では顕著な知能向上:Mistral Large 3は、前モデルのMistral Large 2に比べて大幅なアップグレードを示し、知能指数が+11ポイント上昇し、最大38に上昇しました。しかし、Large 3は依然として主要な独自推論モデルや非推論モデルに追いかけています
† 多用途小型モデル:ミニストラルモデルはベース、インストラクト、推論のバリアント重みでリリースされており、リリース前にインストラクトバリアントのみをテストし、インデックススコアは31(14B)、28(8B)、22(3B)を記録しました。これにより、ミニストラル14Bは従来のミストラル・スモール3.2よりも40%少ないパラメータ数で上回っています。私たちは推論バリアントの評価に取り組んでおり、その知能結果をまもなく共有する予定です。
† マルチモーダル機能:リリースのすべてのモデルはテキストおよび画像入力に対応しており、これはMistral Large 3にとって大きな差別化要因です。なぜなら、同サイズクラスのオープンウェイトモデルは画像入力に対応していないものが少ないからです。コンテキスト長も256kに増加し、より大きな入力タスクが可能になりました。
Mistralの新モデルはオープンウェイト競技からの大きな変化ではありませんが、視覚能力を備えた強力なパフォーマンス基盤を示しています。ミニストラル8Bと14Bのバリアントは、そのサイズに対して特に魅力的な性能を提供しており、コミュニティがどのようにこれらのモデルを活用し、改良していくのか楽しみにしています。
ローンチ時には、新モデルは@MistralAIおよび@awscloud Bedrock、@Azure AI Foundry、@IBMwatsonx、@FireworksAI_HQ、@togethercompute、@modalなど多様なプロバイダーでサーバーレス推論が可能です。

2.66K
FLUX.2 [pro] は人工分析テキスト画像解析リーダーボードで#2位にランクされ、Nano Banana Pro(Gemini 3.0 Pro Image)に次ぐ価格で、価格は4分の1未満です!
FLUX.2はBlack Forest Labs @bfl_mlのイメージモデルのファミリーで、プロ版、フレックス版、デバリアントがあります。すべてのバリアントはテキストから画像編集と画像編集の両方に対応しています。
FLUX.2 [pro]はテキスト・トゥ・イメージ・リーダーボードで#2位に入り、BFLによって生成速度と品質のバランスが最も良いと評価されています。Black Forest LabsのAPIからは、FLUX.1 Kontext [max](10秒)やSeedream 4.0(12秒)と同等の生成時間が観察されています。FLUX.2 [pro]は1000万画素の画像で300ドル/1000ドルで、Seedream 4.0と同等で、Nano Banana Pro(Gemini 3.0 Pro Image)の39/1,000ドルよりもかなり安いです。
FLUX.2 [flex]はテキストから画像への評価で#4位にランクされ、50ステップの推論ステップで4.5のガイダンススケールでテストされました。このバリアントは最も制御が優れており、調整可能なガイダンススケールと推論ステップで最大品質を実現します。このモデルは設定に関わらず、Pro版よりも$60/1000 MP画像と高く、Nano Banana(Gemini 2.5 Flash Image)の39/1kよりも高価です。デフォルト設定では生成時間が約20秒かかり、ベンチマークでは最も遅い拡散モデルの一つです。
FLUX.2 [開発版]はテキストから画像へのリーダーボードで#8位に入り、FLUX[開発]非営利ライセンスのオープンウェイトバリアントです。32Bパラメータモデルは、FLUX.1[開発]の12Bから拡張されたもので、プロ用ハードウェア向けに設計され、消費者向けにFP8量子化されたバージョンも利用可能です。
また、APACHE 2.0ライセンスのもとでサイズを絞ったバリアントであるFLUX.2[クライン]も計画されており、人気のFLUX.1[schnell]の後継となる可能性があります。
画像編集の品質や例の生成例については、以下のスレッド🧵をご覧ください!

2.82K
トップ
ランキング
お気に入り

