- Дата публикации
Apfel: как бесплатно включить Apple Intelligence как свой локальный ИИ на Mac
Что появилось / что изменилось
Apfel — это утилита, которая открывает доступ к уже установленной на Mac языковой модели Apple Intelligence. Никаких API-ключей, облака, подписок и поминутной тарификации по токенам: всё работает локально на вашем Mac с Apple Silicon.
Ключевые факты:
- Работает только на Mac с Apple Silicon и macOS 26 Tahoe или новее.
- Использует встроенный on-device foundation model из Apple Intelligence через фреймворк FoundationModels (доступен с macOS 26+).
- Контекст: до 4096 токенов.
- Весь инференс идёт на устройстве, без сетевых запросов.
- Есть два режима: CLI-утилита в стиле UNIX и HTTP‑сервер, совместимый с API OpenAI.
- Поддерживает tool calling (function calling) с конвертацией схем и полноценным циклом запроса-ответа.
- Бесплатная установка через Homebrew или сборка из исходников.
По сути, Apfel превращает скрытую системную модель Apple в обычный инструмент разработчика: можно писать в терминале, подключать к скриптам и использовать как локальный аналог привычного API.
Как это работает
Apple уже поставляет на Mac базовую LLM как часть Apple Intelligence. К ней даёт доступ фреймворк FoundationModels, но обычный пользователь видит её только через Siri и несколько системных функций.
Apfel поверх этого фреймворка делает две вещи:
-
CLI-интерфейс
Командаapfelпринимает запросы из аргументов, из stdin и из файлов:- однократный запрос:
apfel "Что такое капитал Австрии?"; - потоковый вывод:
apfel --stream "Напиши хайку о коде"; - пайп из других команд:
echo "Summarize: $(cat README.md)" | apfel; - вложения файлов через
-f(флаг можно повторять много раз); - вывод в JSON через
-o jsonс удобным разбором, напримерjq .content; - системный промпт через
-sили--system-file; - тихий режим
-qдля использования в скриптах.
- однократный запрос:
-
HTTP‑сервер, совместимый с OpenAI API
Командаapfel --serveподнимает локальный сервер наhttp://localhost:11434. Он понимает запросы в формате/v1/chat/completions. Можно отправить:curl http://localhost:11434/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{"model":"apple-foundationmodel","messages":[{"role":"user","content":"Hello"}]}'Или использовать официальный Python‑клиент OpenAI, просто подставив
base_url="http://localhost:11434/v1"и любой фиктивныйapi_key.
Отдельный режим — apfel --chat: интерактивный чат в терминале с управлением контекстом. Можно выбрать стратегию работы с историей:
newest-first— по умолчанию, сохраняет последние реплики;oldest-first— держит самые ранние;sliding-windowс--context-max-turns— фиксированное окно диалога;summarize— старые сообщения сжимаются на той же локальной модели;strict— при переполнении контекста выдаёт ошибку вместо обрезки.
Параметр --context-output-reserve резервирует часть контекста под ответ, например 256 токенов.
Что это значит для вас
Apfel полезен, если вы уже сидите на Mac с Apple Silicon и не хотите зависеть от внешних API:
-
Для разработчиков и DevOps
Удобно подключать LLM к shell‑скриптам, git‑хукам и CI:- анализ diff‑ов:
git diff HEAD~1 | apfel -f style-guide.md "Есть ли нарушения стиля?"; - генерация changelog по коммиту:
git show HEAD | apfel -f CHANGELOG.md "Напиши запись для changelog"; - code review с системным промптом «ты старший ревьюер».
- анализ diff‑ов:
-
Для тех, кто не хочет светить данные в облаке
Весь текст — исходный код, документы, конфиденциальные фрагменты — обрабатывается на вашем Mac. Ничего не уходит на серверы OpenAI, Anthropic и других. -
Для тех, кто уже использует OpenAI SDK
Можно временно или частично переключить проекты на локальный ИИ: просто поменятьbase_urlнаhttp://localhost:11434/v1иmodelнаapple-foundationmodel. Это удобно для прототипирования, отладки и офлайн‑режима.
Где Apfel не поможет:
- На Intel‑Mac он не заработает: нужна именно Apple Silicon.
- На macOS до 26 Tahoe модель Apple Intelligence недоступна.
- Если вам нужна максимальная точность и свежие знания уровня GPT‑4o или Claude 3.5 Sonnet, встроенная модель Apple вряд ли их переплюнет.
Отдельный плюс: никакой привязки к регионам и VPN. Всё крутится локально, поэтому геоблокировки API вас не касаются.
Место на рынке
Apfel занимает нишу инструментов, которые превращают системные LLM в обычный разработческий инструмент. По духу он ближе к локальным решениям вроде Ollama или LM Studio, но с важным отличием: он не качает отдельные модели, а использует ту, что уже поставила Apple.
По функциональности Apfel даёт привычный для разработчика набор:
- CLI, дружелюбный к UNIX‑пайпам и скриптам;
- OpenAI‑совместимый HTTP‑сервер на
localhost:11434; - поддержку function calling и управления контекстом;
- работу строго на устройстве, без внешних сервисов.
Сравнивать его по скорости или качеству прямо с GPT‑4o, Claude 3.5 или другими облачными моделями нельзя в лоб: Apfel всего лишь мост к системной модели Apple. Его фишка — нулевая стоимость запросов, простая интеграция и то, что Apple уже поставила эту модель на каждый совместимый Mac.
Если вы пишете под macOS и хотите встроить ИИ в свои утилиты, не думая о ключах и счетах за токены, Apfel закрывает эту задачу из коробки.