Na fali pozyskania 2 miliardów dolarów, @MishaLaskin, CEO @reflection_ai, o tym, dokąd zmierza firma: „Zainwestowaliśmy, aby uzyskać moc obliczeniową potrzebną do wstępnego i końcowego trenowania amerykańskiego otwartego modelu, który możemy eksportować do reszty świata.” Zgromadzili również to, co Laskin nazywa talentem w laboratoriach granicznych: „Mamy krytyczną masę ludzi, którzy prowadzili tę pracę w laboratoriach granicznych — wstępne modelowanie i dane, końcowe rozumowanie, kodowanie, RLHF — zbudowaliśmy zespoły w całym stosie.” Reflection jest teraz w fazie, przez którą musi przejść każde poważne laboratorium graniczne: „Jesteśmy na drabinie skalowania, metodycznie trenując modele od małych do dużych, ponieważ na każdym etapie rzeczy psują się w nowy sposób.” A Laskin wyraźnie oddziela wstępne trenowanie od końcowego trenowania: „Ludzie mówią o biegach YOLO w AI, ale to działa tylko w końcowym trenowaniu. Jak mówi jeden z naszych członków zespołu: nie można YOLO w wstępnym trenowaniu, musi być to niezwykle precyzyjne i metodyczne.” Gdzie obecnie stoimy: „Przechodzimy teraz przez drabinę skalowania. Widzimy ekscytujące wczesne wyniki i w przyszłym roku wydamy świetne modele.”