Setiap kali Anda menanyakan LLM, Anda pada dasarnya berbicara dengan komite kutu buku. Kutu buku menulis data pelatihan (data internet, buku, wikipedia, dll). Kutu buku menyempurnakan modelnya. Kutu buku memperdebatkan kurva kerugian. Setiap token yang Anda dapatkan cukup banyak adalah output dari: - Miliaran "posting blog", utas reddit, jawaban tumpukan luapan , dokumen rfc, perang suntingan wikipedia, perang api pribadi... dll. - Ditambah saus rahasia dari para peneliti OpenAI yang menyempurnakannya sambil mendengarkan Lofi & berdebat tentang penyelarasan di atas latte susu gandum. dampak yang luar biasa pada budaya oleh relatif sedikit.