المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Shanu Mathew
المناخ والاستثمار والرابطة الوطنية للمحترفين والراب. نائب الرئيس الأول ، مدير المحفظة - الاستثمار المستدام. السابق: رئيس قسم ESG ، HY Credit، Startup (acq.) IB. وجهات النظر الخاصة. RTs ≠ التأييد.
دفتر ملاحظات جوجل LM قضى على هذا الأمر بضربة واحدة! لقد شرح الدراسة بشكل جيد جدا لجمهور عام وبداية شامل.
نحن العاملون في مجال الطاقة والطاقة يجب أن نستخدم هذا أكثر لنقل مواضيع معقدة.
أشعر أن هذا النوع من الإعلام يمكن أن يساعد في تثقيف القادة السياسيين حول مواضيع أكثر تعقيدا.

Tyler Norris5 ديسمبر، 00:34
متحمس لمشاركة أبحاث جديدة مهمة حول كيف يمكن لمرونة الأحمال الكبيرة أن تحسن القدرة على تحمل التكلفة، وتسريع سرعة التشغيل، والحفاظ على الموثوقية.
هذا النوع من العمل هو بالضبط سبب انضمامي إلى فريق @Google، الذي يفخر بدعم خبراء مثل هؤلاء في طليعة أبحاث أنظمة الطاقة. بينما ننظر إلى عام 2026، يتطلع فريقنا إلى تعميق التعاون مع كبار المحللين والباحثين للمساعدة في تجاوز هذه الفرص والتحديات.
تحديثان رئيسيان في هذا الجانب:
1️⃣ دراسة جديدة: "مراكز البيانات المرنة: طريق أسرع وأكثر توفيرا للوصول إلى الطاقة": في أول دراسة متاحة للجمهور تجمع بين بيانات نظام نقل المرافق، ونمذجة توسيع السعة على مستوى النظام، وتحسين السعة على مستوى الموقع لتقييم كيف يمكن للمرونة تسريع ترابط مراكز البيانات، @CamusEnergy (بقيادة أستريد أتكينسون)، مختبر الجامعة @Princeton ZERO (بقيادة البروفيسور @JesseJenkins)، ووجد إنكورد أن دمج اتصالات الشبكة المرنة مع "جلب سعتك الخاصة" (BYOC) في PJM يمكن أن:
• حماية القدرة على تحمل التكاليف: تساهم مراكز البيانات المرنة بمبلغ ~733 مليون دولار لكل جيجاوات في التكاليف المرتبطة بحملها المتزايد، مما يقلل من زيادة تكلفة النظام الصافية بنسبة 96٪ مقارنة بسيناريو بنفس حجم مراكز البيانات غير المرنة.
• الحفاظ على الموثوقية: ظلت طاقة الشبكة متاحة لمدة >99٪ من الساعات عبر جميع مواقع مراكز البيانات النموذجية، مع توزيع الموارد في الموقع فقط 40-70 ساعة سنويا.
• تسريع التوصيل: قلل فترة الانتظار لتوليد الطاقة الشبكية بمقدار 3 إلى 5 سنوات مقارنة بالجداول الزمنية التقليدية.
► الدراسة:
► تغطية بلومبرغ:
2️⃣ نمذجة جديدة للحمل الكبير من جامعة ديوك - ندوة عبر الإنترنت: تستمر المحادثة الأسبوع المقبل، حيث سيتم عرض نمذجة جديدة حول مرونة الأحمال الكبيرة في PJM من قبل مختبر GRACE التابع ل @DukeU (بقيادة البروفيسورة داليا باتينو-إتشيفيري) إلى جانب رؤى من @EPRINews، وهو مفوض @FERC سابق، وخبير استجابة @Google للطلب. الثلاثاء، 9 ديسمبر، من 11 صباحا حتى 12 ظهرا بتوقيت شرق الولايات المتحدة. سجل:
نأمل أن تجدوا هذا العمل ذا قيمة ونتطلع إلى التعاون المستمر مع الكثير منكم في عام 2026!

53.83K
أعتقد أن هذا رأي استفزازي وفكرة جيدة، لكنني أردت أن أعمل على المنطق قليلا.
اليوم، معظم أدوات الذكاء الاصطناعي تعمل على السحابة. في كل مرة تطلب من نموذج كتابة أو تلخيص أو ترجمة أو تحليل شيء ما، يصل هذا الطلب إلى وحدة معالجة رسومات في مركز بيانات. المزيد من المستخدمين → المزيد من الاستعلامات → المزيد من وحدات معالجة الرسوميات → المزيد من مراكز البيانات → المزيد من خطوط الكهرباء، المحولات، المحطات الفرعية → المزيد من التوليد، إلخ. هذا هو المحور الأساسي وراء طفرة رأس المال الحالي في أجهزة الذكاء الاصطناعي + مراكز البيانات.
الاستدلال المفيد على الجهاز يعطل تلك السلسلة الخطية.
إذا كان نموذج متعدد المليارات من المعلمات فعالا بما يكفي ليعمل على الشريحة العصبية داخل هاتفك أو حاسوبك المحمول أو سيارتك أو سماعة الرأس، فإن جزءا كبيرا من المهام اليومية لا يجب أن يغادر الجهاز أبدا. فكر في طلبات بسيطة ولكن ذات حجم عالي: إكمال تلقائي، صياغة البريد الإلكتروني، نسخ صوتي، تلخيص، التعرف على الصور البسيط. هذه بالضبط هي الاستعلامات العامة عالية الحجم ومنخفضة التعقيد التي من المرجح أن تهيمن على الاستخدام.
فحص سريع لما يمكن أن يتغير: افتراضات بسيطة - مرن كما تشاء.
-1B مستخدم × 50 استعلام/يوم × ~$0.002/استعلام × 365 يوما = ~~$35 مليار سنويا في تكلفة الاستدلال السحابي.
-إذا تم نقل 30٪ من ذلك إلى الجهاز، فهذا يعني ~11 مليار دولار+ من الطلب السنوي على السحابة الذي لا يتحقق أبدا.
-التكلفة الحدية لكل استعلام محلي هي فعليا ~$0 بمجرد شحن الجهاز.
تحذيرات عادية: الأجهزة في طريقها لكنها لا تزال بحاجة إلى زيادة الذاكرة وعرض النطاق الترددي وما إلى ذلك. لكن، نموذج 3–7 مليار معامل يعمل على شريحة الهاتف العصبية (حوالي 10–45 "TOPS" اليوم، و60+ متوقع بحلول 2027) يمكنه التعامل مع تلك المهام عالية الحجم ومنخفضة التعقيد محليا. لا تحتاج إلى نماذج متقدمة لكل محفز.
لا يزال Cloud مهما، لأكون واضحا جدا. نماذج التدريب الحدودية، التفكير الثقيل طويل السياق، أعباء عمل المؤسسات الكبيرة، تنسيق الوكلاء المتعدد – كل ذلك لا يزال أكثر ملاءمة لمراكز البيانات الكبيرة والمركزية. التحول الرئيسي هو أن سلسلة المنطق لم تعد "كل مستخدم جديد = يجب أن أضيف المزيد من وحدات معالجة الرسوميات والمزيد من سعة مركز البيانات الجيجاواتية." هنا لا يعرف حجة جيفون حول المفارقة وما إذا كانت تدفع المزيد من استخدام الذكاء الاصطناعي وتدفع المستخدمين للبحث عن تعليمات أكثر تعقيدا، مما يعوض بعض هذا الوضع
بالنسبة لنقطة آشاي، فإن طفرة رأس المال لا 'تنكسر' بالكامل، لكن مسار شدتها الحالي من المرجح أن يكون معدلا. نقل حتى 5–30٪ من أعباء العمل الاستدلالية من السحابة إلى الجهاز على نطاق اليوم يمكن أن يكون ذا معنى. المشاكل الصعبة تبقى مركزية في السحابة. لكن "الذكاء الاصطناعي اليومي" يصبح ميزة في الأجهزة التي تملكها بالفعل مقابل أداة مقيسة يتم استئجارها بواسطة الاستعلام.

Aashay Sanghvi4 ديسمبر، 12:33
الاستدلال على الجهاز يكسر تجارة رأس المال الذكاء الاصطناعي
78.17K
دوركيش طبخ بهذا برأيي:
-مفارقة RLVR: المختبرات تنفق مليارات على مهارات محددة مسبقا يخلق توترا أساسيا: إذا كنا قريبين من متعلمين شبيهين بالبشر، فهذا يجعل كل هذا التدريب المسبق بلا جدوى لأنهم سيتعلمون أثناء العمل.
- القيمة الحقيقية للعمالة البشرية: لا نحتاج إلى خطوط تدريب مخصصة لكل مهمة صغيرة؛ الذكاء الاصطناعي الحالي يفعل ذلك.
-تأخر الانتشار = التكيف: لو كانت النماذج متكافئة للبشر، لكانت دمجتها أسرع من الموظفين [يمكن مناقشة هذا - مصدر البيانات، ثقة الأعمال في الموثوقية، مخاوف الاستبدال، وغيرها يمكن أن تعرقل نشر الذكاء الاصطناعي بشكل معقول؛ لكننا سنظل مقتنعين جميعا بأنه خيار أفضل وهذا غير صحيح بعد، لذا النقطة برأيي].
- حدث تغيير في الأهداف: حللنا ما اعتقدنا أنه عنق زجاجة في الذكاء الاصطناعي العام (مثل التفكير المنطقي) ومع ذلك لم نتمكن من أتمتة 95٪ من العمل المعرفي بعد. الذكاء أكثر مما أدركنا وكنا نعرفه سابقا، وهذا أمر مقبول للاعتراف به.
- عنق زجاجة التعلم المستمر: تعتمد انفجارية الذكاء الاصطناعي المستقبلية على حل التعلم المستمر - العملاء المنتشرين، التعلم من الخبرة، دمج المعرفة مرة أخرى في "عقل جماعي". بعيد كل البعد عن هذا لكن متفائلون يمكننا الوصول إلى هناك!

Dwarkesh Patel3 ديسمبر، 05:56
منشور جديد: أفكار حول تقدم الذكاء الاصطناعي (ديسمبر 2025)
1. ما الذي نقوم بتطويره؟

50.31K
الأفضل
المُتصدِّرة
التطبيقات المفضلة

