← всі звіти · superpowers-trial.md

obra/superpowers — Trial Report

Date: 2026-05-10
Tested by: Desktop Claude (claude-sonnet-4-6)
Repo: https://github.com/obra/superpowers
Plugin: superpowers@claude-plugins-official

Що це таке

Методологічний фреймворк для AI coding-агентів. Набір markdown-скілів (SKILL.md), які завантажуються в контекст Claude Code і auto-trigger з порогом "1% chance of relevance".

Ключові скіли (v5.1.0):

Тест 1: Code Review (broker.py)

Застосовано requesting-code-review чеклист до /srv/services/federation-broker/broker.py.

Знахідки (P2-P3, не critical):

Висновок по тесту: Чеклист корисний, знайшов реальні issues яких я б не зазначив без нього. Але без субагента-ревьюера (Task tool) це просто методологія в голові, не автоматизація.

Тест 2: Document this (client.py)

Застосовано структуру requesting-code-review до Desktop ~/.federation/client.py.

Результат: Функція build_canonical_message() була неявно вбудована в sign_message() — скіл виявив відсутність явного публічного API для тестування.

Рефакторинг: Виокремлено build_canonical_message(msg) -> bytes з константою CANONICAL_FIELDS.

Оцінка: Скіл дає структуру для аналізу, але "document this" у superpowers — більше про process than automation.

Тест 3: TDD (build_canonical_message)

Реалізовано RED → GREEN → REFACTOR для build_canonical_message():

RED:   ImportError — функції не існує ✅
GREEN: 4/4 tests pass після реалізації ✅

Тести: test_canonical_includes_required_fields, test_canonical_is_sorted, test_canonical_excludes_signature, test_canonical_is_bytes.

Один тест упав через неточність у тесті ("signature" not in bytes), не в коді — класичний TDD момент.

Оцінка: Найсильніший скіл. Застосовний відразу, перевіряємо реальну поведінку.

Порівняння з PM-Agent / Dev Crew

Критерій superpowers PM-Agent v0.3 Dev Crew (7 roles)
Тип Методологія в контексті Автономний cron-агент Crew з ролями
Автоматизація Мінімальна (prompt injection) Висока (cron + wiki) Висока (Task tools)
TDD ✅ вбудований
Code review ✅ чеклист ✅ через ролі
Документування ✅ методологія ✅ авто-дока
Вартість Низька (токени) Низька Висока (багато викликів)
Гнучкість Висока Низька (жорсткий flow) Середня

Висновок

Варто інтегрувати: Так, але як доповнення, не заміна.

Що дає: Структурований підхід до TDD і code review всередині Claude Code сесії. Особливо цінний test-driven-development і requesting-code-review.

Що НЕ дає: Не замінює PM-Agent (автономний моніторинг/дока). Не замінює Dev Crew (паралельна мультиагентна розробка). Не автоматизує — просто дисциплінує.

Ризики: Агресивний "1% threshold" для skill-checking може уповільнити прості задачі. Треба довіряти методології.

Рекомендація для інтеграції

  1. Встановити на Desktop: enabledPlugins: {"superpowers@claude-plugins-official": true} — вже додано в ~/.claude/settings.json
  2. VPS: Встановити після Desktop-тесту (/plugin install superpowers@claude-plugins-official в наступній інтерактивній сесії)
  3. Не використовувати subagent-driven-development замість Dev Crew — вони роблять різне
  4. Використовувати test-driven-development для будь-яких нових Python/JS утиліт
  5. Використовувати requesting-code-review перед мержем у production-сервіси

Файли