Powszechna adopcja AI jest ograniczona przez rozwój kernelu, specjalistycznych, niskopoziomowych procedur, które wykonują obliczenia na GPU i akceleratorach (Źródło: Szczyt Utrzymania Kernelu). Dlatego prowadzymy rundę finansowania @Standard_Kernel, gdy budują infrastrukturę natywną dla AI, aby zautomatyzować optymalizację kernelu. Każda nowa architektura modelu może wymagać miesięcy specjalistycznego inżynierii, aby zoptymalizować te krytyczne dla wydajności bloki kodu. Wraz z eksplozją obciążeń AI i niedoborem inżynierów kernelu, firmy marnują drogie zasoby obliczeniowe na suboptymalnym kodzie, czekając na ręczne optymalizacje. Standard Kernel wykorzystuje LLM i systemy agentów do automatycznego generowania, testowania i optymalizacji kernelów, przekształcając miesiące inżynierii w procesy w czasie rzeczywistym, które dostosowują się do nowego sprzętu i architektur. Wierzymy, że współzałożyciele @anneouyang i @ChrisRinard wnoszą znakomitą wiedzę. Spotkali się jako asystenci naukowi w zakresie Inżynierii Wydajności Systemów Oprogramowania na MIT. Anne jest autorką KernelBench, otwartego benchmarku Stanfordu dla kernelów GPU generowanych przez LLM, który Nvidia wykorzystała w swoich ocenach na blogu dla deweloperów. Chris wnosi głębokie doświadczenie systemowe i udowodnione przywództwo techniczne. Witamy w rodzinie GC!