Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Chúng ta sẽ không đạt được AGI với LLMs."
Yann LeCun đã nói điều này trong nhiều năm. Bây giờ ông ấy rời Meta để chứng minh điều đó.
LeCun là người phát minh ra mạng nơ-ron tích chập—công nghệ đứng sau mọi camera smartphone và xe tự lái ngày nay. Ông đã giành giải Turing vào năm 2018, giải Nobel của AI.
Ở tuổi 65, người đứng đầu phòng thí nghiệm nghiên cứu FAIR của Meta đang từ bỏ 600 tỷ đô la cơ sở hạ tầng AI, đặt cược chống lại toàn bộ ngành công nghiệp: Meta, OpenAI, Anthropic, xAI, Google.
Ai là @ylecun? Tại sao ông ấy lại rời đi, và tại sao bước đi tiếp theo của ông ấy lại quan trọng? Đây là câu chuyện:
Yann LeCun là ai?
- Tạo ra mạng nơ-ron tích chập (CNN) vào những năm 1980 — hiện là nền tảng cho thị giác máy tính
- Xây dựng LeNet tại Bell Labs → ứng dụng quy mô lớn đầu tiên của học sâu (đọc séc ngân hàng)
- Đoạt giải Turing (2018) cùng với Hinton & Bengio
- Gia nhập Meta năm 2013, thành lập FAIR (Nghiên cứu AI Cơ bản)
- Xây dựng văn hóa nghiên cứu mở: công bố tự do, phát hành mô hình mở
Ông là một trong những "bậc thầy của học sâu."

Vị trí kỹ thuật cốt lõi của LeCun
LeCun đã nhất quán từ năm 2022: Các mô hình ngôn ngữ lớn có những hạn chế cơ bản. Chúng dự đoán các mẫu văn bản nhưng thiếu:
- Hiểu biết về động lực của thế giới vật lý
- Ký ức bền vững
- Lý luận nguyên nhân
- Lập kế hoạch hướng đến mục tiêu
Phép ẩn dụ nổi tiếng của ông: "Chúng ta thậm chí không thể tái tạo trí thông minh của mèo hay chuột, chứ đừng nói đến trí thông minh của chó."
Ông ủng hộ "các mô hình thế giới" — các hệ thống AI học hỏi bằng cách quan sát thế giới vật lý, không chỉ đọc văn bản. Điều này không phải là sự từ chối các LLM là vô dụng, mà là niềm tin rằng chúng không đủ để trở thành con đường dẫn đến trí thông minh tổng quát.

Luận thuyết Mở rộng: Tại sao Meta không đồng ý
Các khoản đầu tư tính toán khổng lồ của ngành công nghiệp dựa trên một quan sát: các mô hình lớn hơn thường hoạt động tốt hơn. Sự chuyển mình từ GPT-3 đến GPT-4 cho thấy những khả năng xuất hiện ở quy mô mà các mô hình nhỏ hơn hoàn toàn thiếu.
Cược đặt ra: nếu chỉ cần mở rộng có thể đạt được AGI, ai xây dựng cơ sở hạ tầng lớn nhất sẽ chiến thắng.
Phản biện của LeCun: quy mô cải thiện dự đoán văn bản, không phải lý luận thực sự hay hiểu biết về thế giới vật lý.
Sự chuyển mình tổ chức tại Meta
2013–2024: FAIR hoạt động với sự tự chủ đáng kể
- Xuất bản công khai, nhận được tính toán đáng kể, duy trì văn hóa học thuật
Tháng 4 năm 2025: Llama 4 ra mắt với những đánh giá trái chiều
- Các chỉ số không đạt yêu cầu của GPT-4.5, Gemini 2, DeepSeek-R1
- Có báo cáo về áp lực nội bộ để tăng tốc
Lãnh đạo của Meta đã kết luận rằng họ cần phải tái cấu trúc nỗ lực AI.

Mùa hè 2025: Meta khởi động chiến dịch tuyển dụng nhân tài mạnh mẽ
- Giám đốc điều hành Mark Zuckerberg trực tiếp gặp gỡ các nhà nghiên cứu tại nhà ở Palo Alto và Lake Tahoe
- Thưởng ký hợp đồng được báo cáo lên tới 200 triệu USD (Ruoming Pang từ Apple)
- Tuyển dụng từ OpenAI, DeepMind, Apple, Anthropic
- Chuyển hướng tập trung: Từ nghiên cứu dài hạn sang triển khai thương mại nhanh hơn

Tháng 6 năm 2025: Cuộc di chuyển của Alexandr Wang
Meta đầu tư 14,3 tỷ USD để sở hữu 49% Scale AI, một công ty hạ tầng dữ liệu.
Mang nhà sáng lập Alexandr Wang (28 tuổi) vào làm Giám đốc AI, dẫn dắt "Meta Superintelligence Labs" mới.
Bối cảnh chính:
- Wang đã xây dựng Scale AI từ một startup chú thích dữ liệu lên đến định giá 29 tỷ USD
- Mối quan hệ rộng rãi với các phòng thí nghiệm AI lớn (OpenAI, Google, DoD)
- Nổi tiếng với khả năng thực thi hoạt động, không phải nghiên cứu học thuật
Điều này đã thay đổi cấu trúc báo cáo trong toàn bộ tổ chức AI của Meta.

Cơ cấu tổ chức lại (Tháng 6-Tháng 8 năm 2025)
Meta tạo ra "Meta Superintelligence Labs" (MSL) với bốn bộ phận:
1. Các mô hình thế hệ tiếp theo (TBD Lab)
2. FAIR (nghiên cứu cơ bản)
3. Sản phẩm & Nghiên cứu ứng dụng
4. Cơ sở hạ tầng
FAIR được tích hợp vào cấu trúc rộng hơn, mất đi một số quyền tự chủ trước đây.
Một số nhà nghiên cứu coi trọng văn hóa học thuật của FAIR đã rời đi:
- Joelle Pineau → Cohere
- ~600 vị trí bị cắt giảm vào tháng 10 năm 2025

Đầu tư cơ sở hạ tầng ở quy mô chưa từng có
Chi tiêu vốn năm 2025: 66–72 tỷ USD
Các dự án lớn:
- Prometheus (Ohio): cụm 1 gigawatt, 2026
- Hyperion (Louisiana): cơ sở đa gigawatt
Dài hạn: Meta dự kiến 600 tỷ USD cho cơ sở hạ tầng AI đến năm 2028.
Điều này đại diện cho cược lớn nhất của ngành vào việc mở rộng các kiến trúc hiện tại — cách tiếp cận mà LeCun đã công khai đặt câu hỏi.


Tháng 11 năm 2025: Kế hoạch rời đi của LeCun
Theo các nguồn tin:
- Kế hoạch rời đi trong những tháng tới
- Thảo luận về việc gây quỹ ban đầu cho startup mô hình thế giới
- Dự kiến thời gian nghiên cứu từ 10-20 năm
- Tập trung vào các kiến trúc thay thế so với việc mở rộng các kiến trúc hiện có
Điều này có nghĩa là từ bỏ quyền truy cập vào:
- 600 tỷ USD trong cơ sở hạ tầng dự kiến
- Triển khai 1,3 triệu GPU
- Một trong những nguồn tài nguyên tính toán AI lớn nhất thế giới

Điều gì sẽ xảy ra tiếp theo
Trong những năm 1980-90, LeCun đã kiên trì với mạng nơ-ron khi lĩnh vực này đã từ bỏ chúng. Cược ngược của ông đã trở thành nền tảng cho cuộc cách mạng AI ngày nay.
Bây giờ ông đang thực hiện một cược ngược khác: rằng việc mở rộng sẽ gặp giới hạn cơ bản, và trí thông minh thực sự cần phải hiểu thế giới vật lý, không chỉ là dự đoán văn bản.
Meta, OpenAI và Google đang đặt cược hơn 600 tỷ đô la rằng ông đã sai—rằng các kiến trúc hiện tại có thể đạt được AGI chỉ thông qua quy mô.
Liệu phán đoán kỹ thuật của LeCun có lại chứng tỏ là sáng suốt hay các nhà mở rộng sẽ chiến thắng?
Câu trả lời sẽ định hình thập kỷ tiếp theo của AI.

421,64K
Hàng đầu
Thứ hạng
Yêu thích

