Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
Lukasz về cách mà hiệu suất của mô hình biên jagged thực sự như thế nào:
"Bạn có thể nói rằng mô hình này thật tuyệt vời trong kỳ thi Olympic toán học. Và cùng lúc đó, tôi có một đứa con gái học lớp một… nó năm tuổi. Tôi đã lấy một bài tập từ cuốn sách toán này và không một mô hình biên nào có thể giải quyết nó."
Nhiệm vụ? Hai nhóm chấm với một chấm chung, và bạn hỏi tổng số là chẵn hay lẻ.
"Điều thú vị là nếu bạn để nó suy nghĩ lâu hơn, nó có thể thực sự giải quyết được… nhưng mất 15 phút. Còn đứa trẻ năm tuổi thì chỉ mất 15 giây."

Matt Turck01:07 27 thg 11
Món quà tuần lễ Lễ Tạ ơn: một cuộc trò chuyện hoành tráng về Frontier AI với @lukaszkaiser - đồng tác giả của "Attention Is All You Need" (Transformers) và nhà khoa học nghiên cứu hàng đầu tại @OpenAI đang làm việc trên các mô hình lý luận thời GPT-5.1.
00:00 – Mở đầu và giới thiệu
01:29 – "Sự chậm lại của AI" so với một tuần hoang dã của các mô hình biên giới mới
08:03 – Những cơ hội dễ dàng, hạ tầng, đào tạo RL và dữ liệu tốt hơn
11:39 – Mô hình lý luận là gì, bằng ngôn ngữ đơn giản
17:02 – Chuỗi suy nghĩ và đào tạo quá trình tư duy với RL
21:39 – Con đường của Łukasz: từ logic và Pháp đến Google và Kurzweil
24:20 – Bên trong câu chuyện Transformer và "sự chú ý" thực sự có nghĩa là gì
28:42 – Từ Google Brain đến OpenAI: văn hóa, quy mô và GPU
32:49 – Điều gì tiếp theo cho việc tiền đào tạo, GPU và chưng cất
37:29 – Chúng ta vẫn có thể hiểu những mô hình này không? Mạch, tính thưa thớt và hộp đen
39:42 – GPT-4 → GPT-5 → GPT-5.1: điều gì thực sự đã thay đổi
42:40 – Sau đào tạo, an toàn và dạy GPT-5.1 các tông giọng khác nhau
46:16 – GPT-5.1 nên suy nghĩ bao lâu? Các token lý luận và khả năng không đồng đều
47:43 – Câu đố chấm của đứa trẻ năm tuổi vẫn làm gãy các mô hình biên giới
52:22 – Khái quát hóa, học hỏi như trẻ con và liệu lý luận có đủ không
53:48 – Vượt ra ngoài Transformers: ARC, ý tưởng của LeCun và các nút thắt đa phương thức
56:10 – GPT-5.1 Codex Max, các tác nhân lâu dài và sự nén
1:00:06 – Liệu các mô hình nền tảng có ăn thịt hầu hết các ứng dụng không? Phép ẩn dụ dịch thuật và sự tin tưởng
1:02:34 – Điều gì vẫn cần được giải quyết, và AI có thể đi đâu tiếp theo
3,64K
Hàng đầu
Thứ hạng
Yêu thích

