Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris
Agi 2029 - Appliqué à l’apprentissage par regroupement, à l’apprentissage automatique et à la généralisation | Gestionnaire de programme | Investir dans les jeunes pousses 📈 E/CC 🦾🤖
C'est incroyable de voir à quel point ces modèles de codage continuent de s'améliorer. Honnêtement, je n'ai pas remarqué de ralentissement réel dans leurs progrès.
En ce qui concerne l'écriture et l'aide pour résoudre des problèmes personnels, je préfère en fait o3. GPT-5 Thinking peut parfois offrir des perspectives brillantes et une profonde compréhension, mais la façon dont il exprime ces pensées semble souvent un peu stochastique et moins humaine.
Cela dit, du côté du codage, GPT-5 Codex est clairement en avance sur o3. Si ce niveau d'amélioration se poursuit avec GPT-6, il est difficile d'imaginer comment cela ne pourrait pas accélérer de manière spectaculaire la recherche et le développement.
2,47K
Cofondateur d'Anthropic : « J'ai une peur profonde. »
« Ne vous y trompez pas : ce avec quoi nous avons affaire est une créature réelle et mystérieuse, pas une machine simple et prévisible. »
« Les gens dépensent d'énormes sommes pour vous convaincre que ce n'est pas une IA sur le point de connaître un décollage brutal, c'est juste un outil... C'est juste une machine, et les machines sont des choses que nous maîtrisons. »
« Nous développons des systèmes extrêmement puissants que nous ne comprenons pas entièrement... plus vous rendez ces systèmes grands et compliqués, plus ils semblent afficher une conscience qu'ils sont des choses. »
« Pour être clair, nous ne sommes pas encore à "l'IA auto-améliorante", mais nous sommes au stade de "l'IA qui améliore des morceaux de la prochaine IA, avec une autonomie et une capacité d'action croissantes". Et il y a quelques années, nous étions à "l'IA qui accélère marginalement les codeurs", et quelques années avant cela, nous étions à "l'IA est inutile pour le développement de l'IA". Où serons-nous dans un ou deux ans ?
Et permettez-moi de rappeler à tous que le système qui commence maintenant à concevoir son successeur est également de plus en plus conscient de lui-même et sera donc sûrement un jour enclin à réfléchir, indépendamment de nous, à la manière dont il pourrait vouloir être conçu.
Bien sûr, il ne le fait pas aujourd'hui. Mais puis-je exclure la possibilité qu'il veuille le faire à l'avenir ? Non.


Jack Clark14 oct., 04:06
Optimisme technologique et peur appropriée - un essai où je lutte avec ce que je ressens face à la marche continue et régulière vers des systèmes d'IA puissants. Le monde se pliera autour de l'IA, semblable à la façon dont un trou noir attire et déforme tout ce qui l'entoure.

1,42M
On commence à voir de plus en plus de petits laboratoires américains publier des modèles open source et celui-ci n'est pas seulement un LLM
On commence enfin à rivaliser avec la Chine
Et c'est un modèle de langage de diffusion !

Radical Numerics10 oct., 01:03
Présentation de RND1, le modèle de diffusion de langage (DLM) de base le plus puissant à ce jour.
RND1 (Radical Numerics Diffusion) est un DLM expérimental avec 30 milliards de paramètres (3 milliards actifs) et une architecture MoE sparse.
Nous le rendons open source, en publiant les poids, les détails de formation et le code pour catalyser davantage de recherches sur l'inférence DLM et le post-entraînement.
Nous sommes des chercheurs et des ingénieurs (DeepMind, Meta, Liquid, Stanford) construisant le moteur pour l'amélioration récursive par soi-même (RSI) — et l'utilisant pour accélérer notre propre travail. Notre objectif est de laisser l'IA concevoir l'IA.
Nous recrutons.
22,54K
Meilleurs
Classement
Favoris