Недавно я разрабатываю инструмент для глобального голосового управления на Mac, в основном для удобства в повседневной работе, чтобы не приходилось постоянно копировать и вставлять, переключаться между разными диалоговыми окнами Agent для выполнения различных задач. Я потратил много времени на изучение механизмов Accessibility, инъекции событий и резервного копирования буфера обмена, но реализация текстовых полей в разных приложениях сильно различается. В этом процессе я все время мечтал, как было бы здорово, если бы я мог просто использовать Siri, чтобы управлять на системном уровне, с контекстной непрерывностью, восприятием экрана и возможностью выполнения задач между приложениями. Но хорошая новость в том, что после выхода локального агента openclaw разработка этой потребности стала намного проще, включая компоновку подсказок, вызов моделей или инструментов и так далее. Смотря на сегодняшние новости о приобретении, можно предсказать, что Apple наконец-то начнет активно развивать голосовое управление.