OpenClaw にチャットするだけ:「Xを研究して」→ 完了。
🇺🇸 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇰🇷 한국어 · 🇫🇷 Français · 🇩🇪 Deutsch · 🇪🇸 Español · 🇧🇷 Português · 🇷🇺 Русский · 🇸🇦 العربية
pip install -e . && researchclaw run --topic "Your research idea here" --auto-approve
アイデアがある。論文が欲しい。それだけです。
AutoResearchClawは研究トピックを受け取り、完全な学術論文を自律的に生成します — arXivとSemantic Scholar(マルチソース、レート制限回避のためarXiv優先)からの実際の文献検索、ハードウェア対応のサンドボックス実験(GPU/MPS/CPUを自動検出)、統計分析、査読、学会対応のLaTeX(NeurIPS/ICML/ICLR向け5,000〜6,500語)まで含みます。手動作業も、ツール間のコピペも不要です。
| 📄 | paper_draft.md | 完全な学術論文(序論、関連研究、手法、実験、結果、結論) |
| 📐 | paper.tex | 学会対応LaTeX(NeurIPS / ICLR / ICMLテンプレート) |
| 📚 | references.bib | Semantic ScholarとarXivからの実際のBibTeX参考文献 — 本文中の引用に合わせて自動整理 |
| 🔍 | verification_report.json | 4層の引用整合性+関連性検証(arXiv、CrossRef、DataCite、LLM) |
| 🧪 | experiment runs/ | 生成されたコード+サンドボックス実行結果+構造化JSONメトリクス |
| 📊 | charts/ | 誤差棒と信頼区間付きの条件比較チャートを自動生成 |
| 📝 | reviews.md | 手法-証拠の一貫性チェック付きマルチエージェント査読 |
| 🧬 | evolution/ | 各実行から抽出された自己学習の教訓 |
| 📦 | deliverables/ | すべての最終成果物を1フォルダに集約 — Overleafですぐにコンパイル可能 |
パイプラインは人手の介入なしにエンドツーエンドで実行されます(手動レビュー用のゲートステージを設定しない限り)。実験が失敗すれば自己修復し、仮説が成り立たなければ方向転換します。
researchclaw run --topic "Agent-based Reinforcement Learning for Automated Scientific Discovery" --auto-approve
パイプラインは単に直線的に実行されるわけではありません。ステージ15(RESEARCH_DECISION)は実験結果を仮説と照合し、自律的に判定を行います:
各PIVOT/REFINEサイクルでは以前の成果物がバージョン管理され(stage-08_v1/、stage-08_v2/、...)、作業が失われることなく判定の推移を完全に追跡できます。
重要なステージでは、複数のLLM視点による構造化された討論プロトコルを使用します:
パイプラインの各実行から詳細な教訓を抽出します — 単に「失敗した」だけでなく、なぜ失敗したかを記録:
RuntimeWarning: division by zero)これらの教訓はJSONLストアに保持され、30日の半減期による時間減衰重み付けが適用され、将来の実行にプロンプトオーバーレイとして注入されます。パイプラインは文字通り自分のミスから学びます。
各実行で6カテゴリの構造化された知識ベース(docs/kb/に保存)を構築します:
メインパイプラインが見逃す可能性のある問題を検出するバックグラウンド品質モニター:
| 🦞 |
AutoResearchClawはOpenClaw互換サービスです。 OpenClawにインストールして、メッセージ1つで自律研究を開始できます。CLI、Claude Code、その他のAIコーディングアシスタントを使ってスタンドアロンでも利用可能です。 |
OpenClawをすでにAIアシスタントとしてお使いの場合:
1️⃣ GitHubリポジトリのURLをOpenClawに共有 2️⃣ OpenClawがRESEARCHCLAW_AGENTS.mdを自動読み込み → パイプラインを理解 3️⃣ 「Research [あなたのトピック]」と話しかける 4️⃣ 完了 — OpenClawがクローン、インストール、設定、実行、結果の返却まですべて自動実行
以上です。 OpenClawがgit clone、pip install、設定、パイプライン実行を自動的に処理します。チャットするだけです。
RESEARCHCLAW_AGENTS.mdを読み取り → 研究オーケストレーターの役割を学習README.mdを読み取り → インストールとパイプライン構造を理解config.researchclaw.example.yaml → config.yamlにコピーpip install -e . + researchclaw run --topic "..." --auto-approveを実行より深い統合のために、AutoResearchClawには6つのオプション機能を備えたブリッジアダプターシステムが含まれています:
# config.arc.yaml
openclaw_bridge:
use_cron: true # ⏰ スケジュール実行
use_message: true # 💬 進捗通知(Discord/Slack/Telegram)
use_memory: true # 🧠 セッション間の知識永続化
use_sessions_spawn: true # 🔀 並列サブセッションの生成
use_web_fetch: true # 🌐 文献レビュー中のライブWeb検索
use_browser: false # 🖥️ ブラウザベースの論文収集
各フラグは型付きアダプタープロトコルをアクティブにします。OpenClawがこれらの機能を提供する場合、アダプターはコード変更なしにそれらを利用します。詳細はintegration-guide.mdをご覧ください。
| 方法 | 手順 |
|---|---|
| スタンドアロンCLI | researchclaw run --topic "..." --auto-approve |
| Python API | from researchclaw.pipeline import Runner; Runner(config).run() |
| Claude Code | RESEARCHCLAW_CLAUDE.mdを読み取り — *「Run research on [トピック]」*と言うだけ |
| OpenCode | .claude/skills/を読み取り — 同じ自然言語インターフェース |
| 任意のAI CLI | RESEARCHCLAW_AGENTS.mdをコンテキストとして提供 → エージェントが自動ブートストラップ |
フェーズ A: 研究スコーピング フェーズ E: 実験実行 1. TOPIC_INIT 12. EXPERIMENT_RUN 2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← 自己修復 フェーズ B: 文献探索 フェーズ F: 分析と判定 3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← マルチエージェント 4. LITERATURE_COLLECT ← 実API 15. RESEARCH_DECISION ← PIVOT/REFINE 5. LITERATURE_SCREEN [ゲート] 6. KNOWLEDGE_EXTRACT フェーズ G: 論文執筆 16. PAPER_OUTLINE フェーズ C: 知識統合 17. PAPER_DRAFT 7. SYNTHESIS 18. PEER_REVIEW ← 証拠チェック 8. HYPOTHESIS_GEN ← 討論 19. PAPER_REVISION フェーズ D: 実験設計 フェーズ H: 最終処理 9. EXPERIMENT_DESIGN [ゲート] 20. QUALITY_GATE [ゲート] 10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE 11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX 23. CITATION_VERIFY ← 関連性チェック
ゲートステージ(5, 9, 20)は人間の承認を待つか、
--auto-approveで自動承認されます。却下時にはパイプラインがロールバックします。
判定ループ: ステージ15はREFINE(→ ステージ13)またはPIVOT(→ ステージ8)をトリガーでき、成果物のバージョン管理が自動的に行われます。
| フェーズ | 処理内容 |
|---|---|
| A: スコーピング | LLMがトピックを研究質問を含む構造化された問題ツリーに分解 |
| A+: ハードウェア | GPU(NVIDIA CUDA / Apple MPS / CPUのみ)を自動検出、ローカルハードウェアが限定的な場合は警告、コード生成を適応 |
| B: 文献 | マルチソース検索(arXiv優先、次にSemantic Scholar)で実際の論文を取得、関連性でスクリーニング、知識カードを抽出 |
| C: 統合 | 発見事項をクラスタリング、研究ギャップを特定、マルチエージェント討論で検証可能な仮説を生成 |
| D: 設計 | 実験計画を設計、ハードウェア対応の実行可能Python(GPUティア→パッケージ選択)を生成、リソース需要を推定 |
| E: 実行 | サンドボックスで実験を実行、NaN/Infとランタイムバグを検出、LLMによる的確な修復で自己修復 |
| F: 分析 | マルチエージェントによる結果分析;根拠付きの自律的PROCEED / REFINE / PIVOT判定 |
| G: 執筆 | アウトライン → セクション別ドラフト(5,000〜6,500語)→ 査読(手法-証拠の一貫性付き)→ 文字数ガード付き改訂 |
| H: 最終処理 | 品質ゲート、知識アーカイブ、学会テンプレート付きLaTeXエクスポート、引用の整合性+関連性検証 |
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .
cp config.researchclaw.example.yaml config.arc.yaml
project:
name: "my-research"
research:
topic: "Your research topic here"
llm:
base_url: "https://api.openai.com/v1" # 任意のOpenAI互換エンドポイント
api_key_env: "OPENAI_API_KEY" # APIキーを含む環境変数名
primary_model: "gpt-4o" # エンドポイントがサポートする任意のモデル
fallback_models: ["gpt-4o-mini"]
s2_api_key: "" # オプション: レート制限緩和のためのSemantic Scholar APIキー
experiment:
mode: "sandbox"
sandbox:
python_path: ".venv/bin/python"
# APIキーを設定
export OPENAI_API_KEY="sk-..."
# 🚀 フルパイプラインを実行
researchclaw run --config config.arc.yaml --auto-approve
# 🎯 トピックをインラインで指定
researchclaw run --config config.arc.yaml --topic "Transformer attention for time series" --auto-approve
# ✅ 設定を検証
researchclaw validate --config config.arc.yaml
# ⏩ 特定のステージから再開
researchclaw run --config config.arc.yaml --from-stage PAPER_OUTLINE --auto-approve
出力先 → artifacts/rc-YYYYMMDD-HHMMSS-<hash>/(ステージごとに1つのサブディレクトリ)。
ユーザー向けの全成果物は自動的に1つの**deliverables/**フォルダに集約されます:
artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/ ├── paper_final.md # 最終論文(Markdown) ├── paper.tex # 学会対応LaTeX ├── references.bib # 検証済みBibTeX参考文献(自動整理済み) ├── neurips_2025.sty # 学会スタイルファイル(自動選択) ├── code/ # 実験コード + requirements.txt ├── verification_report.json # 引用整合性レポート ├── charts/ # 結果の可視化(条件比較、誤差棒) └── manifest.json # メタデータ付き成果物インデックス
deliverables/フォルダはコンパイル可能な状態です — 学会の.styと.bstファイルが含まれているため、pdflatex + bibtexでpaper.texを直接コンパイルするか、追加ダウンロードなしでOverleafにアップロードできます。
ステージ4は実際の学術APIに問い合わせます — LLMが幻覚した論文ではありません。Semantic Scholarのレート制限を回避するため、arXiv優先戦略を採用。
@article{cite_key, ...}エントリfrom researchclaw.literature import search_papers
papers = search_papers("transformer attention mechanisms", limit=20)
for p in papers:
print(f"{p.title} ({p.year}) — cited {p.citation_count}x")
print(p.to_bibtex())
論文執筆後、ステージ23がすべての参考文献の整合性と関連性の両方をファクトチェックします:
| レイヤー | 方法 | チェック内容 |
|---|---|---|
| L1 | arXiv API id_list | arXiv IDを持つ論文 — そのIDが実際に存在するか検証 |
| L2 | CrossRef /works/{doi} + DataCiteフォールバック | DOIを持つ論文 — DOIが解決でき、タイトルが一致するか検証(DataCiteがarXivの10.48550 DOIに対応) |
| L3 | Semantic Scholar + arXivタイトル検索 | その他すべて — ファジータイトルマッチング(類似度≥0.80) |
| L4 | LLM関連性スコアリング | 検証済み全参考文献 — 研究に対するトピック関連性を評価 |
各参考文献 → VERIFIED ✅ · SUSPICIOUS ⚠️ · HALLUCINATED ❌ · SKIPPED ⏭️ · LOW_RELEVANCE 📉
自動クリーンアップ: 幻覚された引用は論文テキストから静かに削除されます([HALLUCINATED]タグなし)。引用されていない参考文献エントリは整理されます。最終的なreferences.bibには検証済みの引用された参考文献のみが含まれます。
ステージ1がローカルのGPU性能を自動検出し、パイプライン全体を適応させます:
| ティア | 検出方法 | 動作 |
|---|---|---|
| High | 8GB以上のVRAMを持つNVIDIA GPU | フルPyTorch/GPUコード生成、torchが未インストールの場合は自動インストール |
| Limited | 8GB未満のNVIDIAまたはApple MPS | 軽量実験(パラメータ100万未満、20エポック以下)、ユーザーへ警告 |
| CPU-only | GPUが検出されない | NumPy/sklearnのみ、torchインポートなし、リモートGPU推奨の警告 |
ハードウェアプロファイルはstage-01/hardware_profile.jsonに保存され、コード生成、サンドボックスのインポート、プロンプトの制約に影響します。
should_stop()タイムガード、report_metric()のNaN/Inf拒否、finalize()の結果書き出しを含む不変のexperiment_harness.pyをサンドボックスに注入(karpathy/autoresearchの不変evalパターンに着想)results.jsonを生成(stdout解析だけではない)is_metric_name())を使用してログ行をメトリクスからフィルタリング執筆パイプラインはNeurIPS/ICML/ICLR基準(9ページ以上、5,000〜6,500語)を目標としています:
export:
target_conference: "neurips_2025" # または "iclr_2026" または "icml_2026"
| 学会 | スタイルパッケージ | カラム数 |
|---|---|---|
| NeurIPS 2025 | neurips_2025 | 1 |
| ICLR 2026 | iclr2026_conference | 1 |
| ICML 2026 | icml2026 | 2 |
| NeurIPS 2024 | neurips_2024 | 1 |
| ICLR 2025 | iclr2025_conference | 1 |
| ICML 2025 | icml2025 | 2 |
Markdown → LaTeXコンバーターが処理する内容:セクション見出し(自動番号振り重複排除付き)、インライン/ディスプレイ数式、太字/斜体、リスト、テーブル(\caption/\label付き)、図(\includegraphics)、コードブロック(Unicode安全)、相互参照、\cite{}参照。
| ゲート | ステージ | 却下時のロールバック先 |
|---|---|---|
| 文献スクリーニング | 5 | 文献の再収集(ステージ4) |
| 実験設計 | 9 | 仮説の再生成(ステージ8) |
| 品質ゲート | 20 | アウトラインからの論文再執筆(ステージ16) |
--auto-approveですべてのゲートをスキップするか、security.hitl_required_stagesで特定のステージを設定できます。
# === プロジェクト ===
project:
name: "my-research" # プロジェクト識別子
mode: "docs-first" # docs-first | semi-auto | full-auto
# === 研究 ===
research:
topic: "..." # 研究トピック(必須)
domains: ["ml", "nlp"] # 文献検索の研究ドメイン
daily_paper_count: 8 # 検索クエリあたりの目標論文数
quality_threshold: 4.0 # 論文の最小品質スコア
# === ランタイム ===
runtime:
timezone: "America/New_York" # タイムスタンプ用
max_parallel_tasks: 3 # 同時実験数の上限
approval_timeout_hours: 12 # ゲートステージのタイムアウト
retry_limit: 2 # ステージ失敗時のリトライ回数
# === LLM ===
llm:
provider: "openai-compatible" # プロバイダータイプ
base_url: "https://..." # APIエンドポイント(必須)
api_key_env: "OPENAI_API_KEY" # APIキーの環境変数(必須)
api_key: "" # またはここにキーを直接記入
primary_model: "gpt-4o" # プライマリモデル
fallback_models: ["gpt-4o-mini"] # フォールバックチェーン
s2_api_key: "" # Semantic Scholar APIキー(オプション、レート制限緩和)
# === 実験 ===
experiment:
mode: "sandbox" # simulated | sandbox | docker | ssh_remote
time_budget_sec: 600 # 実行あたりの最大実行時間(デフォルト: 600秒)
max_iterations: 10 # 最大最適化反復回数
metric_key: "val_loss" # プライマリメトリクス名
metric_direction: "minimize" # minimize | maximize
sandbox:
python_path: ".venv/bin/python"
gpu_required: false
allowed_imports: [math, random, json, csv, numpy, torch, sklearn]
max_memory_mb: 4096
docker:
image: "researchclaw/experiment:latest"
network_policy: "setup_only" # none | setup_only | pip_only | full
gpu_enabled: true
memory_limit_mb: 8192
auto_install_deps: true # importを自動検出 → requirements.txt
ssh_remote:
host: "" # GPUサーバーのホスト名
gpu_ids: [] # 利用可能なGPU ID
remote_workdir: "/tmp/researchclaw_experiments"
# === エクスポート ===
export:
target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026
authors: "Anonymous"
bib_file: "references"
# === プロンプト ===
prompts:
custom_file: "" # カスタムプロンプトYAMLのパス(空 = デフォルト)
# === セキュリティ ===
security:
hitl_required_stages: [5, 9, 20] # 人間の承認が必要なステージ
allow_publish_without_approval: false
redact_sensitive_logs: true
# === 知識ベース ===
knowledge_base:
backend: "markdown" # markdown | obsidian
root: "docs/kb"
# === 通知 ===
notifications:
channel: "console" # console | discord | slack
target: ""
# === OpenClaw Bridge ===
openclaw_bridge:
use_cron: false # スケジュール研究実行
use_message: false # 進捗通知
use_memory: false # セッション間の知識永続化
use_sessions_spawn: false # 並列サブセッションの生成
use_web_fetch: false # ライブWeb検索
use_browser: false # ブラウザベースの論文収集
以下のプロジェクトに着想を得ています:
MIT — 詳細はLICENSEをご覧ください。
Built with 🦞 by the AutoResearchClaw team