Món quà tuần lễ Lễ Tạ ơn: một cuộc trò chuyện hoành tráng về Frontier AI với @lukaszkaiser - đồng tác giả của "Attention Is All You Need" (Transformers) và nhà khoa học nghiên cứu hàng đầu tại @OpenAI đang làm việc trên các mô hình lý luận thời GPT-5.1. 00:00 – Mở đầu và giới thiệu 01:29 – "Sự chậm lại của AI" so với một tuần hoang dã của các mô hình biên giới mới 08:03 – Những cơ hội dễ dàng, hạ tầng, đào tạo RL và dữ liệu tốt hơn 11:39 – Mô hình lý luận là gì, bằng ngôn ngữ đơn giản 17:02 – Chuỗi suy nghĩ và đào tạo quá trình tư duy với RL 21:39 – Con đường của Łukasz: từ logic và Pháp đến Google và Kurzweil 24:20 – Bên trong câu chuyện Transformer và "sự chú ý" thực sự có nghĩa là gì 28:42 – Từ Google Brain đến OpenAI: văn hóa, quy mô và GPU 32:49 – Điều gì tiếp theo cho việc tiền đào tạo, GPU và chưng cất 37:29 – Chúng ta vẫn có thể hiểu những mô hình này không? Mạch, tính thưa thớt và hộp đen 39:42 – GPT-4 → GPT-5 → GPT-5.1: điều gì thực sự đã thay đổi 42:40 – Sau đào tạo, an toàn và dạy GPT-5.1 các tông giọng khác nhau 46:16 – GPT-5.1 nên suy nghĩ bao lâu? Các token lý luận và khả năng không đồng đều 47:43 – Câu đố chấm của đứa trẻ năm tuổi vẫn làm gãy các mô hình biên giới ...