Jag tror att jag var för avvisande mot Cursors nya Composer-1 kodning LLM. Visst, det är strängt värre än GPT-5 High Effort och GPT-5-Codex, så i den meningen ser jag inte riktigt någon plats för det i mina arbetsflöden när jag utformar och implementerar viktiga kodprojekt. Å andra sidan är det extremt snabbt (undrar hur de gjorde detta; använder de Groq eller Cerebras hårdvara? är det för att modellen är så liten och effektiv? inte säker), och bara detta låser upp många nya arbetsflöden och arbetstekniker för när koden inte är så verksamhetskritisk, eller när du startar ett nytt projekt och du inte behöver oroa dig för att knäcka befintlig kod. Det är också mycket, mycket billigare jämfört med någon variant av GPT-5. Kombinationen av mycket snabbare och mycket billigare skapar en viss kvalitativ skillnad i hur man kan använda modellen som jag inte riktigt uppskattade tidigare. När kostnaden för iteration är så låg både när det gäller tid och pengar kan du iterera många fler gånger. Det sänker värdet på "one-shot korrekthet"; det vill säga förmågan hos en modell som GPT-5 Pro att få till och med en komplex kodningsuppgift rätt redan första gången utan buggar (även om även den modellen ofta misslyckas i detta mycket stränga test). Men om du kan stänga felsökningsloopen och snabbt mata in felen/varningarna i modellen igen, och varje iterationsomgång tar 20 sekunder till en minut (i stället för 5 till 10 gånger så lång tid åtminstone med hjälp av GPT-5 med hög ansträngning), kan du snabbt lösa alla slarviga misstag som den gör första gången (eller till och med den andra, tredje eller fjärde gången) och ändå avsluta med fungerande kod tidigare än du kunde med GPT-5. Om du utvecklar något i webbläsaren kan du nu verkligen stänga loopen hela vägen med hjälp av Cursors nya webbläsarflik, vilket är den överlägset bästa implementeringen av den här typen av saker jag har sett i något kodningsverktyg (det är mil före att använda Playwright MCP från Codex eller Claude Code!). Jag har använt den här uppmaningen med stor effekt idag: "Använd webbläsarfliken för att systematiskt utforska den här appen och använda gränssnittet på ett naturligt sätt; medan det händer, se upp för EVENTUELLA varningar eller fel i dev console. När du ser en börjar du interaktivt och iterativt diagnostisera och åtgärda buggar och problem och uppdaterar sedan appen och kontrollerar att felet eller varningen är helt löst. När du fixar saker, fokusera på att fastställa den verkliga underliggande grundorsaken till buggen och inte tillämpa falska "plåster"-fixar!" Där detta tillvägagångssätt verkligen bryter samman är dock i koncept- och planeringsfaserna där du tar reda på vad du ska göra och det bästa sättet att implementera det på en hög nivå. Där kan bristen på djupt tänkande och utforskande leda dig in på en dålig väg som är svår att återhämta sig från. Detta är mycket mer uppenbart när uppgiften du arbetar med avviker långt från "datamångfalden" för vanliga kodningsuppgifter. Om du skapar ännu en enkel CRUD-webbplats kommer du förmodligen inte att märka det så mycket. Om du försöker beträda ny mark i en artificiell livssimulering eller något konstigt liknande kommer du att märka det ofta. Men det finns en trevlig hybridmetod som fungerar riktigt bra: att kombinera den smartaste modellen för planering med dessa snabba och billiga modeller för att skapa iterationer. Så använd GPT-5 Pro i webbläsarappen för att ta fram din plan och en första implementering, klistra sedan in den i markören och börja iterera och åtgärda och förbättra. Den är mycket bättre på att modifiera en befintlig stark grund än den är på att lägga ut själva grunden. Där allt detta verkligen lyser är när du spelar och utforskar med något roligt, i ett nytt projekt där det inte finns några deadlines eller förväntningar. I det här sammanhanget är hastigheten en riktig gamechanger. Det påminner mig om den gamla forskningen som gjordes av IBM i början av 80-talet som tittade på latens med datorsystem, som fann att när latensen kommer under en magisk nivå, som 50 ms, får du en stor förändring i beteende eftersom den mänskliga hjärnan uppfattar att den har att göra med ett "levande system". Och omvänt, när latensen går över till och med en förvånansvärt blygsam nivå, som 500 ms, får du mycket mindre engagemang, och det är mentalt påfrestande och frustrerande. När latensen ökar till några sekunder eller mer tenderar människor att checka ut mentalt och det blir en kamp att hålla sig engagerad. Att se kodningsmodellen svara inom några sekunder och göra en uppsjö av 10 redigeringar på under 15 sekunder är helt enkelt en helt annan upplevelse än att vänta 5 minuter på att GPT-5 ska anstränga sig för att metodiskt ta sig igenom något. ...