Apple готовит масштабное обновление своих ИИ-возможностей под названием Apple Intelligence 2.0, которое станет ключевой частью iOS 19 этой осенью. Новый этап развития Siri и интеграция нейросетей в повседневные приложения обещают вывести пользовательский опыт на принципиально новый уровень.
Главным новшеством станет обновлённая Siri с поддержкой персонального контекста. Ассистент начнёт понимать, что происходит на экране, и выполнять сотни новых действий — не только в рамках одного приложения, но и между разными. Эти функции должны были появиться ещё в iOS 18, но Apple отложила релиз ради стабильности и точности.
В будущем Siri станет ещё умнее. Компания работает над новой версией под названием LLM Siri — это голосовой помощник, построенный на основе мощной языковой модели, аналогичной ChatGPT. Он обеспечит более живой и естественный диалог с пользователем. Появление LLM Siri ожидается весной 2026 года вместе с обновлением iOS 19.4.
Apple также планирует расширить поддержку сторонних нейросетей. В iOS 18 уже была интегрирована ChatGPT, а сейчас ведутся переговоры с Google об использовании модели Gemini. Обсуждается и подключение других ИИ-сервисов, включая Perplexity, что даст пользователям возможность выбирать ассистента по своему вкусу.
ИИ-функции начнут активно появляться и в стандартных приложениях. Так, в Apple Music появится генератор обложек плейлистов, использующий нейросеть Image Playground. Это расширит возможности персонализации и творчества прямо в интерфейсе приложения.
Apple Intelligence 2.0 может стать самым значимым шагом в развитии искусственного интеллекта внутри экосистемы компании. Если всё будет реализовано в срок, уже этой осенью ИИ перестанет быть просто фоном — и станет полноценной частью опыта взаимодействия с iPhone и другими устройствами Apple.
источник
уникальность