Дата публикации
ai_products

Apfel: как бесплатно включить Apple Intelligence как свой локальный ИИ на Mac

Что появилось / что изменилось

Apfel — это утилита, которая открывает доступ к уже установленной на Mac языковой модели Apple Intelligence. Никаких API-ключей, облака, подписок и поминутной тарификации по токенам: всё работает локально на вашем Mac с Apple Silicon.

Ключевые факты:

  • Работает только на Mac с Apple Silicon и macOS 26 Tahoe или новее.
  • Использует встроенный on-device foundation model из Apple Intelligence через фреймворк FoundationModels (доступен с macOS 26+).
  • Контекст: до 4096 токенов.
  • Весь инференс идёт на устройстве, без сетевых запросов.
  • Есть два режима: CLI-утилита в стиле UNIX и HTTP‑сервер, совместимый с API OpenAI.
  • Поддерживает tool calling (function calling) с конвертацией схем и полноценным циклом запроса-ответа.
  • Бесплатная установка через Homebrew или сборка из исходников.

По сути, Apfel превращает скрытую системную модель Apple в обычный инструмент разработчика: можно писать в терминале, подключать к скриптам и использовать как локальный аналог привычного API.

Как это работает

Apple уже поставляет на Mac базовую LLM как часть Apple Intelligence. К ней даёт доступ фреймворк FoundationModels, но обычный пользователь видит её только через Siri и несколько системных функций.

Apfel поверх этого фреймворка делает две вещи:

  1. CLI-интерфейс
    Команда apfel принимает запросы из аргументов, из stdin и из файлов:

    • однократный запрос: apfel "Что такое капитал Австрии?";
    • потоковый вывод: apfel --stream "Напиши хайку о коде";
    • пайп из других команд: echo "Summarize: $(cat README.md)" | apfel;
    • вложения файлов через -f (флаг можно повторять много раз);
    • вывод в JSON через -o json с удобным разбором, например jq .content;
    • системный промпт через -s или --system-file;
    • тихий режим -q для использования в скриптах.
  2. HTTP‑сервер, совместимый с OpenAI API
    Команда apfel --serve поднимает локальный сервер на http://localhost:11434. Он понимает запросы в формате /v1/chat/completions. Можно отправить:

    curl http://localhost:11434/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{"model":"apple-foundationmodel","messages":[{"role":"user","content":"Hello"}]}'
    

    Или использовать официальный Python‑клиент OpenAI, просто подставив base_url="http://localhost:11434/v1" и любой фиктивный api_key.

Отдельный режим — apfel --chat: интерактивный чат в терминале с управлением контекстом. Можно выбрать стратегию работы с историей:

  • newest-first — по умолчанию, сохраняет последние реплики;
  • oldest-first — держит самые ранние;
  • sliding-window с --context-max-turns — фиксированное окно диалога;
  • summarize — старые сообщения сжимаются на той же локальной модели;
  • strict — при переполнении контекста выдаёт ошибку вместо обрезки.

Параметр --context-output-reserve резервирует часть контекста под ответ, например 256 токенов.

Что это значит для вас

Apfel полезен, если вы уже сидите на Mac с Apple Silicon и не хотите зависеть от внешних API:

  • Для разработчиков и DevOps
    Удобно подключать LLM к shell‑скриптам, git‑хукам и CI:

    • анализ diff‑ов: git diff HEAD~1 | apfel -f style-guide.md "Есть ли нарушения стиля?";
    • генерация changelog по коммиту: git show HEAD | apfel -f CHANGELOG.md "Напиши запись для changelog";
    • code review с системным промптом «ты старший ревьюер».
  • Для тех, кто не хочет светить данные в облаке
    Весь текст — исходный код, документы, конфиденциальные фрагменты — обрабатывается на вашем Mac. Ничего не уходит на серверы OpenAI, Anthropic и других.

  • Для тех, кто уже использует OpenAI SDK
    Можно временно или частично переключить проекты на локальный ИИ: просто поменять base_url на http://localhost:11434/v1 и model на apple-foundationmodel. Это удобно для прототипирования, отладки и офлайн‑режима.

Где Apfel не поможет:

  • На Intel‑Mac он не заработает: нужна именно Apple Silicon.
  • На macOS до 26 Tahoe модель Apple Intelligence недоступна.
  • Если вам нужна максимальная точность и свежие знания уровня GPT‑4o или Claude 3.5 Sonnet, встроенная модель Apple вряд ли их переплюнет.

Отдельный плюс: никакой привязки к регионам и VPN. Всё крутится локально, поэтому геоблокировки API вас не касаются.

Место на рынке

Apfel занимает нишу инструментов, которые превращают системные LLM в обычный разработческий инструмент. По духу он ближе к локальным решениям вроде Ollama или LM Studio, но с важным отличием: он не качает отдельные модели, а использует ту, что уже поставила Apple.

По функциональности Apfel даёт привычный для разработчика набор:

  • CLI, дружелюбный к UNIX‑пайпам и скриптам;
  • OpenAI‑совместимый HTTP‑сервер на localhost:11434;
  • поддержку function calling и управления контекстом;
  • работу строго на устройстве, без внешних сервисов.

Сравнивать его по скорости или качеству прямо с GPT‑4o, Claude 3.5 или другими облачными моделями нельзя в лоб: Apfel всего лишь мост к системной модели Apple. Его фишка — нулевая стоимость запросов, простая интеграция и то, что Apple уже поставила эту модель на каждый совместимый Mac.

Если вы пишете под macOS и хотите встроить ИИ в свои утилиты, не думая о ключах и счетах за токены, Apfel закрывает эту задачу из коробки.


Читайте также

Apfel: как бесплатно включить Apple Intelligence как свой локальный ИИ на Mac — VogueTech | VogueTech