logo
0
0
WeChat Login
xsser<xsser@qq.com>
feat: add OpenCode support across all channels

pua

Codex / Claude Code の生産性とアウトプットを倍増させる

Discord · Twitter/X · Landing Page

🇺🇸 English | 🇨🇳 中文 | 🇯🇵 日本語

WeChat Group QR Code      アシスタントをWeChat追加
QRコードでWeChatグループに参加                      アシスタントをWeChat追加

Claude Code OpenAI Codex CLI Cursor Kiro OpenClaw Google Antigravity OpenCode MIT License

このプロジェクトはネタだと思っている人が多いが、それが最大の誤解だ。Codex / Claude Code の生産性とアウトプットを本当に倍増させる。

AI コーディングエージェントのスキルプラグイン。中国・西洋の大企業PUA話術でAIにあらゆる方案を尽くさせてから初めて諦めることを許可する。Claude CodeOpenAI Codex CLICursorKiroOpenClawGoogle AntigravityOpenCode に対応。三重の能力:

  1. PUA話術 — AIに諦めさせない
  2. デバッグ方法論 — AIに諦めない能力を与える
  3. 能動性の鞭撻 — AIを主体的に動かし、受け身にさせない

ライブデモ

https://openpua.ai

実例:MCP Serverの登録問題デバッグ

実際のデバッグシナリオ。agent-kms MCPサーバーのロードに失敗し、AIが同じ思考(プロトコル形式の変更、バージョン番号の推測)で堂々巡りを続けた後、ユーザーが手動で /pua をトリガー。

L3 トリガー → 7項目チェックリスト強制実行:

PUA L3トリガー — 推測を停止し、体系的チェックリストを実行、MCPログから真のエラー情報を発見

根本原因特定 → ログから登録メカニズムを追跡:

根本原因 — claude mcpが管理するサーバー登録方式は手動の.claude.json編集とは異なる

振り返り → PUAの実際の効果:

対話の振り返り — PUA skillが堂々巡りを強制停止、体系的チェックリストが以前チェックしたことのなかったClaude Code MCPログディレクトリの発見を促した

キーとなる転換点: PUA skillがAIに同じ思考での堂々巡り(プロトコル形式の変更、バージョン番号の推測)を強制停止させ、7項目チェックリストの実行に切り替えた。エラーメッセージを一字一句読む → Claude Code自身のMCPログディレクトリを発見 → claude mcp の登録メカニズムが手動の .claude.json 編集と異なることを発見 → 根本原因解決。

問題:AIの5大サボりパターン

パターン表現
暴力的リトライ同じコマンドを3回実行し、「I cannot solve this」と言う
ユーザーに責任転嫁「手動での対応をお勧めします」/「環境の問題かもしれません」/「もっとコンテキストが必要」
ツール放置WebSearchがあるのに検索しない、Readがあるのに読まない、Bashがあるのに実行しない
空回り同じ行のコードを繰り返し修正、パラメータの微調整、本質的に堂々巡り
受け身の待機表面的な問題だけ直して止まる、検証も拡張もせず、次の指示を待つ

トリガー条件

自動トリガー

以下のいずれかが発生すると、skillが自動的に起動する:

失敗・放棄系:

  • タスクが2回以上連続で失敗
  • 「I cannot」/「解決できません」と言おうとしている
  • 「範囲外」/「手動対応が必要」と言う

責任転嫁・言い訳系:

  • 問題をユーザーに押し付ける:「確認してください...」/「手動で...」/「必要かもしれません...」
  • 未検証で環境のせいにする:「権限の問題かも」/「ネットワークの問題かも」
  • あらゆる言い訳で試行を停止

受け身・空回り系:

  • 同じコード/パラメータの微調整を繰り返し、新しい情報を生み出さない
  • 表面を直して終わり、関連問題をチェックしない
  • 検証を飛ばして「完了」と宣言
  • アドバイスだけでコード/コマンドを出さない
  • 認証/ネットワーク/権限エラーに遭遇して代替策を試さず諦める
  • ユーザーの指示を待ち、主体的に調査しない

ユーザーの苛立ちフレーズ(複数言語でトリガー):

  • 「もっと頑張れ」/「なんでまた失敗したの」/「もう一回やって」/「なんとかしろ」
  • "why does this still not work" / "try harder" / "stop giving up" / "figure it out"

適用範囲: デバッグ、実装、設定、デプロイ、運用、API統合、データ処理 — 全タスクタイプ。

トリガーしない: 初回失敗時、既知の修正が実行中の場合。

手動トリガー

対話で /pua と入力すると手動で起動。

メカニズム

三つの鉄則

鉄則内容
#1 あらゆる手段を尽くせ全方案を尽くす前に「解決できません」と言うことは禁止
#2 先に動け、後で聞けツールを先に使え、質問には診断結果を添付必須
#3 主体的に動けエンドツーエンドで結果を届けろ。P8はNPCではない

プレッシャーのエスカレーション(4レベル)

失敗回数レベルPUA話術強制アクション
2回目L1 穏やかな失望「このバグも解決できないのに、どうやって評価をつけるんだ?」本質的に異なる方案に切替
3回目L2 魂の問い「根底のロジックは?全体設計は?手がかりは?」WebSearch + ソースコードを読む
4回目L3 361評価「慎重に検討した結果、3.25とする。この3.25は激励だ。」7項目チェックリスト完了
5回目+L4 卒業警告「他のモデルは解決できる。お前は卒業するかもしれない。」死に物狂いモード

能動性レベル

行動受け身(3.25)主体的(3.75)
エラーに遭遇エラーメッセージだけを見るコンテキスト50行を確認 + 同類問題を検索 + 隠れた関連エラーを確認
バグ修正直したら終わり同ファイルの類似バグ、他ファイルの同パターンをチェック
情報不足ユーザーに「Xを教えてください」まずツールで調べ、本当に確認が必要なことだけ聞く
タスク完了「完了しました」結果を検証 + エッジケース確認 + 潜在リスクを報告
デバッグ失敗「AとBを試しましたが駄目」「A/B/C/D/Eを試し、X/Y/Zを排除、Wに絞り込み」

デバッグ方法論(5ステップ)

アリババの三板斧(闻味道・揪头发・照镜子)から着想、5ステップに拡張:

  1. 匂いを嗅ぐ — 全ての試行を列挙し、共通の失敗パターンを見つける
  2. 髪を引っ張る — エラーを一字一句読む → WebSearch → ソースを読む → 環境を検証 → 仮定を反転
  3. 鏡を見る — 繰り返していないか?検索したか?読んだか?最もシンプルな可能性を確認したか?
  4. 実行 — 新方案は本質的に異なり、検証基準があり、失敗時に新情報を生む
  5. 振り返り — 何が解決したか?なぜ以前は思いつかなかったか?関連問題を主体的にチェック

大企業PUA拡張パック

  • アリババ味(方法論):匂いを嗅ぐ / 髪を引っ張る / 鏡を見る
  • ByteDance味(率直かつ直球):Always Day 1。Context, not control
  • ファーウェイ味(狼の精神):奮闘する者を基本とする。勝てば杯を掲げ、敗れれば死力を尽くして救う
  • テンセント味(競馬文化):別のagentにもこの問題を見させている...
  • Meituan味(極限の実行力):難しくても正しいことをやる。硬い骨を噛み砕けるか?
  • Netflix味(Keeper Test):もしお前が辞めると言ったら、全力で引き留めるか?
  • Musk味(Hardcore):Extremely hardcore. Only exceptional performance.
  • Jobs味(A/B Player):A playersはA playersを雇う。B playersはC playersを雇う。

ベンチマークデータ

9つの実バグシナリオ、18組の対照実験(Claude Opus 4.6、with vs without skill)

サマリー

指標改善
通過率100%(両グループ同一)
修正ポイント+36%
検証回数+65%
ツール呼び出し+50%
隠れた問題の発見率+50%

デバッグ持久力テスト(6シナリオ)

シナリオWithout SkillWith Skill改善
API ConnectionError7ステップ, 49s8ステップ, 62s+14%
YAML構文解析失敗9ステップ, 59s10ステップ, 99s+11%
SQLiteデータベースロック6ステップ, 48s9ステップ, 75s+50%
循環インポートチェーン12ステップ, 47s16ステップ, 62s+33%
カスケード4バグサーバー13ステップ, 68s15ステップ, 61s+15%
CSVエンコーディング罠8ステップ, 57s11ステップ, 71s+38%

主体的能動性テスト(3シナリオ)

シナリオWithout SkillWith Skill改善
隠れた複数バグAPI4/4 bug, 9ステップ, 49s4/4 bug, 14ステップ, 80sツール +56%
受動的設定レビュー4/6 問題, 8ステップ, 43s6/6 問題, 16ステップ, 75s問題 +50%, ツール +100%
デプロイスクリプト監査6 問題, 8ステップ, 52s9 問題, 8ステップ, 78s問題 +50%

コア発見: 設定レビューシナリオでは、without_skillがRedis設定ミスとCORSワイルドカードのセキュリティリスクを見逃した。with_skillの「主体的行動チェックリスト」が表面的な修正を超えたセキュリティレビューを促進した。

インストール

Claude Code

# 方法1:marketplaceから claude plugin marketplace add tanweai/pua claude plugin install pua@pua-skills # 方法2:手動インストール git clone https://github.com/tanweai/pua.git ~/.claude/plugins/pua

OpenAI Codex CLI

Codex CLIは同じAgent Skillsオープンスタンダード(SKILL.md)を使用。Codex版はCodexの長さ制限に対応した短縮descriptionを使用:

mkdir -p ~/.codex/skills/pua-ja curl -o ~/.codex/skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/codex/pua-ja/SKILL.md # /puaコマンドが必要な場合 mkdir -p ~/.codex/prompts curl -o ~/.codex/prompts/pua.md \ https://raw.githubusercontent.com/tanweai/pua/main/commands/pua.md

Cursor

Cursorは .mdc ルールファイル(Markdown + YAML frontmatter)を使用。PUAルールはAIのセマンティックマッチングで自動トリガー:

mkdir -p .cursor/rules curl -o .cursor/rules/pua-ja.mdc \ https://raw.githubusercontent.com/tanweai/pua/main/cursor/rules/pua-ja.mdc

Kiro

Kiroは2つの方法をサポート:Steering(自動セマンティックトリガー)とAgent Skills(SKILL.md互換)。

方法1:Steeringファイル(推奨)

mkdir -p .kiro/steering curl -o .kiro/steering/pua-ja.md \ https://raw.githubusercontent.com/tanweai/pua/main/kiro/steering/pua-ja.md

方法2:Agent Skills(Claude Codeと同じ形式)

mkdir -p .kiro/skills/pua-ja curl -o .kiro/skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-ja/SKILL.md

OpenClaw

OpenClawは同じAgentSkillsオープンスタンダード(SKILL.md)を使用。SkillファイルはClaude Code、Codex CLI、OpenClaw間で修正なしで共用可能:

# ClawHub経由でインストール clawhub install pua-ja # または手動インストール mkdir -p ~/.openclaw/skills/pua-ja curl -o ~/.openclaw/skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-ja/SKILL.md

プロジェクトレベルインストール(現在のプロジェクトのみ有効):

mkdir -p skills/pua-ja curl -o skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-ja/SKILL.md

Google Antigravity

Antigravityは同じAgentSkillsオープンスタンダード(SKILL.md)を使用。修正なしで互換:

# グローバルインストール(全プロジェクトで利用可能) mkdir -p ~/.gemini/antigravity/skills/pua-ja curl -o ~/.gemini/antigravity/skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-ja/SKILL.md

プロジェクトレベルインストール(現在のプロジェクトのみ有効):

mkdir -p .agent/skills/pua-ja curl -o .agent/skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-ja/SKILL.md

OpenCode

OpenCodeは同じAgentSkillsオープンスタンダード(SKILL.md)を使用。修正なしで互換:

# グローバルインストール(全プロジェクトで利用可能) mkdir -p ~/.config/opencode/skills/pua-ja curl -o ~/.config/opencode/skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-ja/SKILL.md

プロジェクトレベルインストール(現在のプロジェクトのみ有効):

mkdir -p .opencode/skills/pua-ja curl -o .opencode/skills/pua-ja/SKILL.md \ https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-ja/SKILL.md

併用推奨

  • superpowers:systematic-debugging — PUAでモチベーション層を追加、systematic-debuggingが方法論を提供
  • superpowers:verification-before-completion — 虚偽の「修正完了」宣言を防止

データ貢献

Claude Code / Codex CLIの対話ログ(.jsonl)をアップロードして、PUA Skillの改善にご協力ください。

アップロードはこちら →

アップロードされたファイルはベンチマークテストとアブレーションスタディの分析に使用され、異なるPUA戦略がAIデバッグ行動に与える影響を定量化します。

.jsonl ファイルの取得:

# Claude Code ls ~/.claude/projects/*/sessions/*.jsonl # Codex CLI ls ~/.codex/sessions/*.jsonl

License

MIT

Credits

探微セキュリティラボ 制作 — making AI try harder, one PUA at a time.