Lyssna inte på någon av de som tvivlar, Gemini 3 är extremt bra på alla möjliga kodningsuppgifter. Allt från UI för webbappar, iOS-utveckling i Swift, backend-kod i Python, allt som har med AI/ML att göra, osv. Den är riktigt stark och bra på att följa regler och använda verktyg.
Det verkar som att när en stor frontier-modell släpps, pratar en massa människor som försöker få anseende om hur "underwhelming" den är och hur den misslyckades med deras favorituppgift. Oftast märker du att de var usla på att ge uppmaningar eller att deras uppgift är idiotisk och inte alls relevant i verkliga livet.
Det finns några undantag, som Llama4, som uppenbarligen var hemsk för alla som provade det i 3 minuter. Men folk sa så om GPT-5 och det var löjligt fel. Det är som på aktiemarknaden, folk får mer uppmärksamhet för att vara skeptiska och konträra. Negativitet säljer
Det som spelar roll (åtminstone för kodning) är hur bra modellen är för personer som redan är skickliga på att använda liknande modeller för mjukvaruutveckling, och deras välgrundade åsikt efter att ha testat den i flera timmar på olika realistiska, verkliga uppgifter, inte dumma fel-situationer.
Och det krävs verklig tid och många oberoende tester för att verkligen se hur konsekvent och autonom modellen är, hur mycket handlingskraft och "uthållighet och beslutsamhet" den visar (en del av detta handlar också om agentens verktyg, alltså Cursor kontra Gemini-CLI), hur pålitlig den är med verktyg.
Gemini 3 lyser verkligen på alla dessa dimensioner. Google har skapat ett enormt marknadsvärde för sig själv med denna modell, särskilt eftersom de kan hosta den till självkostnadspris på sin egen specialbyggda kisel.
Det kommer att vara svårt (nästintill omöjligt) för andra att närma sig denna punkt på pris-prestandakurvan. Även om GPT-6 är något smartare, kommer hostingkostnaderna för OpenAI efter att ha betalat "Nvidia-skatten" och gett Jensen hans 90 % bruttomarginal att göra att det inte räcker till i Pareto-termer.
6,15K