Ostatnio pracuję nad narzędziem do globalnej kontroli głosowej na Maca, głównie po to, aby ułatwić sobie codzienną pracę, nie musząc ciągle kopiować i wklejać oraz przełączać się między różnymi oknami rozmowy Agentów w celu obsługi różnych zadań. Spędziłem dużo czasu na rozważaniu trzech mechanizmów: dostępności, wstrzykiwania zdarzeń i obsługi schowka, ale różnice w implementacji pól tekstowych w różnych aplikacjach są ogromne. W tym procesie ciągle wyobrażałem sobie, jakby to było, gdybym mógł po prostu używać Siri, aby bezpośrednio kontrolować na poziomie systemu, mając ciągłość kontekstu, świadomość ekranu i zdolność do działania między aplikacjami. Dobrą wiadomością jest to, że po wydaniu lokalnego agenta openclaw, rozwój tej potrzeby stał się znacznie łatwiejszy, w tym układanie promptów, wywoływanie modeli lub narzędzi itd. Patrząc na dzisiejsze wiadomości o przejęciu, można się spodziewać, że Apple w końcu zacznie intensywnie działać w obszarze kontroli głosowej.