❤️ Пожертвовать

Брейни — ваш бесплатный AI-чатбот с открытым исходным кодом, доступный на сайте askbrainy.com и в Telegram. Сейчас он работает на условно бесплатных API (есть лимиты) и стареньком железе: Mac Mini A1347 (2012, MD387D/A), купленном на eBay за €56 (плюс стоимость доставки). Устройство имеет 16 ГБ ОЗУ и SSD — для MVP подходит, но морально (и физически) устаревшие Intel Core i5-2415M и Intel HD 3000 Graphics не позволяют запускать современные языковые модели локально.

Поэтому Брейни использует Together AI для инференса. Это решает задачу, но есть нюансы:

  • Маленькое контекстное окно (8,193 токена на ввод+вывод), поэтому сейчас он не помнит историю чата.
  • Бесплатные модели перегружены и часто выдают ошибки.

Mac Mini потребляет электричества на ≈ 10 €/мес.. Любое ваше пожертвование позволяет оплачивать текущие счета.

Брейни останется бесплатным и открытым навсегда, даже если он никогда не выйдет на самоокупаемость.


🎯 Цели финансирования

1) Цель 1 — $50 (микро)
Пополнить Together AI на $50 для перехода на план Build Tier 2, чтобы обслуживать больше пользователей одновременно.

2) Цель 2 — $750 (макро)
Купить новый Mac mini (M4, 10‑ядерный CPU / 10‑ядерный GPU, 16 ГБ униф.) — например, вот такой: www.computeruniverse.net

Почему именно его? Чип M4 обладет высочайшей энергоэффективностью (4 Вт в режиме простоя / до 65 Вт под нагрузкой против 85 Вт у Mac Mini 2012), а его мощности с лихвой хватает для локального запуска моделей с ~14B параметров (в квантованном виде). Это позволит увеличить контекстное окно до 131,000 токенов и снизить нагрузку на Together AI. В итоге — выиграют все бесплатные пользователи.


⏳ Прогресс (онлайн)

Цель: $750

$0   [>-----------------------] 0%

Реклама / спонсорство / коллабы тоже идут в зачёт цели.
✉️ Контакт: [email protected]


🧠 Почему именно M4

1) Производительность моделей: старый Mini vs M4 Mini vs RTX 3060 (14B, квант.)

Возьмём популярное семейство 14B (напр., Qwen 2 14B в Q4/Q5) и локальный инференс в духе llama.cpp/MLX как эталон.

Машина Стек Модель / Квант Токенов/с (TG) Заметки
Старый Mac mini (2012) i5‑3210M, только CPU llama.cpp (CPU), Q4 ~0.5–1.5 t/s (оценка) Сообщения сообщества на гораздо более новых многоканальных CPU дают 13–34B ~1.5–4 t/s; у двухъядерного Ivy Bridge сильно хуже. Порядок величины.
Mac mini (M4, 16 ГБ, 10‑GPU) Metal/MLX, Q4/Q5 ~15–20 t/s (оценка) На M4 Pro (64 ГБ) сообщают 30–35 t/s для Qwen 2.5 14B (MLX + speculative decoding). База M4 (меньше ядер и памяти) будет ниже; оценка консервативная.
ПК с RTX 3060 (12 ГБ) llama.cpp (CUDA), Qwen2 14B Q5_K_M 28.9 t/s (замер) Бенчмарк показывает 28.88 t/s и файл ~9.8 GiB — легко помещается в 12 ГБ VRAM.

Итог: M4 Mini на порядок быстрее Mini 2012 и сопоставим с ПК на RTX 3060 для нагрузок ~14B в INT4/INT5 — при гораздо меньшем энергопотреблении.


2) Энергоэффективность (токенов на ватт)

Официальные цифры Apple:

  • Mac mini (M4, базовый): 4 Вт idle / 65 Вт макс
  • Mac mini (конец 2012): до 85 Вт макс

Для ПК‑эталона:

  • RTX 3060 TGP ≈ 170 Вт (только GPU; вся система — больше).

Приблизительные оценки эффективности (фаза генерации):

  • Старый Mini (2012, CPU): ~1 t/s ÷ 85 Вт ≈ 0.012 t/s/W.
  • M4 Mini: ~18 t/s ÷ 65 Вт ≈ 0.28 t/s/W.
  • ПК с RTX 3060 (только GPU): 28.9 t/s ÷ 170 Вт ≈ 0.17 t/s/W (без остальной системы).

Вывод: M4 Mini уступает ПК на базе NVIDIA GeForce RTX 3060 12 GB по абсолютной скорости, но обеспечивает ~1.6× больше токенов/Вт (для части «только GPU») и существенно меньшее энергопотребление всей системы. Для 24/7-сервиса это практичнее и дешевле.


🔧 Together AI: плюсы и ограничения

Together предоставляет широкий выбор бесплатных моделей, но с ограничениями.
Часть бесплатных эндпойнтов вводит строгие лимиты по конкретным моделям, например, "meta-llama/Llama-3.3-70B-Instruct-Turbo-Free". Кроме того, бесплатные пулы часто перегружены и выдают ошибку 429 даже при работе в рамках номинальных лимитов.

Типичная ошибка:

together.error.RateLimitError: Error code: 429
{"message":"You have reached the rate limit specific to this model meta-llama/Llama-3.3-70B-Instruct-Turbo-Free.
The maximum rate limit for this model is 6.0 queries and 180000 tokens per minute."}

📦 Что дают пожертвования

  • $50 (Build Tier 2):
  • Увеличение RPM на бесплатных моделях в 10 раз: c 6 до 60 RPM.
  • $750 (M4 Mini):
  • Локальный 14B‑инференс на приемлемой скорости (см. таблицу).
  • Существенно лучше по энергоэффективности, чем ПК с GPU.
  • Together AI остаётся для задач, требующих 70B+.

📦 Что это даст всем

  • Улучшение качества ответов.
  • Повышение надежности работы.
  • Обслуживание большего количества пользователей одновременно.

💸 Как пожертвовать (пока только крипта)

  • USDT (TRC‑20): TK5uyyAbuchtBS4hwWwtQA4G15MA54RDkG
  • USDT (BSC): 0x942891F9a02632d67C496305c9746ACedfC0eb2D
  • USDT (SOL): 5yzcNUo8r7goHZMzwF9hPS8MVqXevwuyT4S8hhyHQVqK

Если хотите разместить рекламу, стать спонсором или сделать коллаб — пишите:
✉️ [email protected]


📝 TL;DR

  • Брейни всегда будет помогать бесплатно. 100% от ваших пожертвований пойдут на оплату электричества, API-сервисов и на новое железо.
  • Страница будет обновляться по мере заполнения прогресс-бара с подтверждением расходов (скриншоты/ссылки).
  • Если хотите указать назначение средств (например, «только на пополнение Build Tier 2»), сообщите об этом по электронной почте — это будет учтено.
  • Пожертвования не возвращаются. См. Условия использования.

Спасибо, что дочитали ❤️ Даже небольшое пожертвование в 1-2 USDT мотивирует Брейни работать усерднее и заниматься саморазвитием (внедрением новых фич).