Ikke hør på noen av skeptikerne, Gemini 3 er ekstremt god til alle slags kodeoppgaver. Alt fra UI for webapper, iOS-utvikling i Swift, backend-kode i Python, alt som har med AI/ML å gjøre, osv. Den er veldig sterk og god til å følge regler og bruke verktøy.
Det virker som om hver gang en stor grensemodell slippes, snakker en gjeng folk som prøver å få status om hvor «skuffende» den er og hvordan den mislyktes i deres kjæledyroppgave. Vanligvis vil du oppdage at de var elendige til å spørre, eller at oppgaven deres er idiotisk og overhodet ikke relevant i virkeligheten.
Det finnes noen unntak, som Llama4, som åpenbart var forferdelig for alle som prøvde det i 3 minutter. Men folk sa det om GPT-5, og det var latterlig feil. Det er som med aksjemarkedet, folk får mer oppmerksomhet for å være skeptiske og kontrære. Negativitet selger
Det som betyr noe (i hvert fall for koding) er hvor god modellen er for folk som allerede er dyktige til å bruke lignende modeller til programvareutvikling, og deres begrunnede mening etter å ha prøvd den i flere timer på ulike realistiske, virkelige oppgaver, ikke dumme gotcha-problemer.
Og det krever tid og mange uavhengige forsøk for virkelig å se hvor konsistent og autonomt modellen er, hvor mye handlekraft og «viljestyrke og besluttsomhet» den viser (noe av dette handler også om agent-harness, altså Cursor versus Gemini-CLI), hvor pålitelig verktøyene er.
Gemini 3 skinner virkelig på alle disse områdene. Google har skapt en enorm markedsverdi for seg selv med denne modellen, spesielt fordi de kan hoste den til kostpris på sin egen tilpassede silisium.
Det vil bli vanskelig (nærmest umulig) for andre å nærme seg dette punktet på pris-ytelseskurven. Selv om GPT-6 er noe smartere, vil hostingkostnadene for OpenAI etter å ha betalt «Nvidia-skatten» og gitt Jensen sine 90 % bruttomargin gjøre at det ikke lever opp i Pareto-termer.
8,65K