A HuggingFace tornou o fine-tuning 10x mais fácil! Uma linha em inglês para ajustar qualquer LLM de código aberto. Eles lançaram uma nova "habilidade" que você pode conectar ao Claude ou a qualquer agente de codificação. Não apenas escreve scripts de treinamento, mas realmente envia trabalhos para GPUs na nuvem, monitora o progresso e envia modelos finalizados para o Hub. Aqui está como funciona: Você diz algo como: "Ajustar Qwen3-0.6B no conjunto de dados open-r1/codeforces-cots" E o Claude irá: ↳ Validar o formato do seu conjunto de dados ↳ Selecionar o hardware de GPU apropriado ↳ Enviar o trabalho para Hugging Face Jobs ↳ Monitorar o progresso do treinamento ↳ Enviar o modelo finalizado para o Hub O modelo treina nas GPUs da Hugging Face enquanto você faz outras coisas. Quando terminar, seu modelo ajustado aparece no Hub, pronto para uso. Isso não é uma demonstração de brinquedo. A habilidade suporta métodos de treinamento em produção: SFT, DPO e GRPO. Você pode treinar modelos de 0.5B a 70B parâmetros, convertê-los para GGUF para implantação local e executar pipelines de múltiplas etapas. Uma execução completa de treinamento em um modelo pequeno custa apenas cerca de $0.30. ...