LLM'leri varlıklar olarak değil, simülatör olarak düşünün. Örneğin, bir konuyu araştırırken şunu sormayın: "Xyz hakkında ne düşünüyorsun?" "Sen" diye bir şey yok. Bir dahaki deneme: "Keşfetmek için iyi bir grup hangi olurdu? Ne derler?" LLM birçok bakış açısını kanalize edebilir/simüle edebilir ama bir süredir xyz hakkında "düşünmemiş" ve alıştığımız şekilde kendi görüşlerini oluşturmuş. "Sen" kelimesini kullanarak zorla uygularsanız, ince ayar verilerinin istatistikleriyle ima edilen kişilik gömme vektörü benimseyerek size bir şey verir ve ardından bunu simüle eder. Bunu yapmak sorun değil, ama insanların "bir yapay zekaya sormak" olarak naif bir şekilde atfettiğinden çok daha az gizem.