تحدث مع OpenClaw: «ابحث عن X» → تمّ.
🇺🇸 English · 🇨🇳 中文 · 🇯🇵 日本語 · 🇰🇷 한국어 · 🇫🇷 Français · 🇩🇪 Deutsch · 🇪🇸 Español · 🇧🇷 Português · 🇷🇺 Русский · 🇸🇦 العربية
pip install -e . && researchclaw run --topic "Your research idea here" --auto-approve
لديك فكرة. تريد ورقة بحثية. هذا كل شيء.
يأخذ AutoResearchClaw موضوعاً بحثياً وينتج بشكل مستقل ورقة أكاديمية كاملة — مع أدبيات حقيقية من arXiv و Semantic Scholar (متعدد المصادر، أولوية arXiv لتجنب تحديد المعدل)، وتجارب في بيئة معزولة واعية بالعتاد (كشف تلقائي لـ GPU/MPS/CPU)، وتحليل إحصائي، ومراجعة أقران، و LaTeX جاهز للمؤتمرات (يستهدف 5,000-6,500 كلمة لـ NeurIPS/ICML/ICLR). بدون مراقبة. بدون نسخ ولصق بين الأدوات.
| 📄 | paper_draft.md | ورقة أكاديمية كاملة (مقدمة، أعمال سابقة، المنهجية، التجارب، النتائج، الخاتمة) |
| 📐 | paper.tex | LaTeX جاهز للمؤتمرات (قوالب NeurIPS / ICLR / ICML) |
| 📚 | references.bib | مراجع BibTeX حقيقية من Semantic Scholar و arXiv — مُنقّحة تلقائياً لمطابقة الاستشهادات المضمّنة |
| 🔍 | verification_report.json | تحقق من سلامة الاستشهادات على 4 طبقات + التحقق من الصلة (arXiv، CrossRef، DataCite، LLM) |
| 🧪 | experiment runs/ | كود مُولّد + نتائج البيئة المعزولة + مقاييس JSON منظمة |
| 📊 | charts/ | رسوم بيانية مُولّدة تلقائياً لمقارنة الظروف مع أشرطة الخطأ وفترات الثقة |
| 📝 | reviews.md | مراجعة أقران متعددة الوكلاء مع فحص اتساق المنهجية والأدلة |
| 🧬 | evolution/ | دروس تعلّم ذاتي مستخلصة من كل تشغيل |
| 📦 | deliverables/ | جميع المخرجات النهائية في مجلد واحد — جاهزة للترجمة على Overleaf |
يعمل خط الأنابيب من البداية إلى النهاية بدون تدخل بشري (ما لم تقم بتهيئة مراحل البوابات للمراجعة اليدوية). عندما تفشل التجارب، يصلح نفسه. عندما لا تصمد الفرضيات، يغيّر المسار.
researchclaw run --topic "Agent-based Reinforcement Learning for Automated Scientific Discovery" --auto-approve
لا يعمل خط الأنابيب بشكل خطي فقط. المرحلة 15 (RESEARCH_DECISION) تقيّم نتائج التجارب مقابل الفرضيات وتتخذ قراراً مستقلاً:
كل دورة PIVOT/REFINE تحفظ نسخاً من المخرجات السابقة (stage-08_v1/، stage-08_v2/، ...) بحيث لا يُفقد أي عمل ويمكن تتبع تطور القرارات بالكامل.
تستخدم المراحل الحرجة بروتوكول نقاش منظم مع وجهات نظر متعددة من نماذج اللغة:
كل تشغيل لخط الأنابيب يستخلص دروساً دقيقة — ليس فقط "فشلت" بل لماذا:
RuntimeWarning: division by zero)هذه الدروس تُحفظ في مخزن JSONL مع تثقيل بتناقص زمني بنصف عمر 30 يوماً وتُحقن كطبقات إضافية في الأوامر النصية للتشغيلات المستقبلية. خط الأنابيب يتعلّم حرفياً من أخطائه.
كل تشغيل يبني قاعدة معرفة منظمة (مخزّنة في docs/kb/) مع 6 فئات:
مراقب جودة في الخلفية يكتشف المشاكل التي قد يفوتها خط الأنابيب الرئيسي:
| 🦞 |
AutoResearchClaw هو خدمة متوافقة مع OpenClaw. قم بتثبيته في OpenClaw وابدأ بحثاً مستقلاً برسالة واحدة — أو استخدمه بشكل مستقل عبر سطر الأوامر أو Claude Code أو أي مساعد برمجة بالذكاء الاصطناعي. |
إذا كنت تستخدم OpenClaw بالفعل كمساعد ذكاء اصطناعي:
1️⃣ شارك رابط مستودع GitHub مع OpenClaw 2️⃣ OpenClaw يقرأ تلقائياً RESEARCHCLAW_AGENTS.md → يفهم خط الأنابيب 3️⃣ قل: "ابحث عن [موضوعك]" 4️⃣ تم — OpenClaw يستنسخ، يثبّت، يهيّئ، يشغّل، ويعيد النتائج
هذا كل شيء. يتعامل OpenClaw مع git clone، pip install، إعداد التهيئة، وتنفيذ خط الأنابيب تلقائياً. أنت فقط تتحدث.
RESEARCHCLAW_AGENTS.md → يتعلم دور منسّق البحثREADME.md → يفهم التثبيت وبنية خط الأنابيبconfig.researchclaw.example.yaml → config.yamlpip install -e . + researchclaw run --topic "..." --auto-approveللتكامل الأعمق، يتضمن AutoResearchClaw نظام محوّلات جسر مع 6 إمكانيات اختيارية:
# config.arc.yaml
openclaw_bridge:
use_cron: true # ⏰ عمليات تشغيل بحث مجدولة
use_message: true # 💬 إشعارات التقدم (Discord/Slack/Telegram)
use_memory: true # 🧠 استمرارية المعرفة عبر الجلسات
use_sessions_spawn: true # 🔀 إطلاق جلسات فرعية متوازية للمراحل المتزامنة
use_web_fetch: true # 🌐 بحث ويب مباشر أثناء مراجعة الأدبيات
use_browser: false # 🖥️ جمع الأوراق عبر المتصفح
كل علامة تفعّل بروتوكول محوّل مُحدد النوع. عندما يوفر OpenClaw هذه الإمكانيات، تستهلكها المحوّلات بدون تغييرات في الكود. راجع integration-guide.md للتفاصيل الكاملة.
| الطريقة | الكيفية |
|---|---|
| سطر أوامر مستقل | researchclaw run --topic "..." --auto-approve |
| واجهة Python البرمجية | from researchclaw.pipeline import Runner; Runner(config).run() |
| Claude Code | يقرأ RESEARCHCLAW_CLAUDE.md — فقط قل "شغّل بحثاً عن [موضوع]" |
| OpenCode | يقرأ .claude/skills/ — نفس واجهة اللغة الطبيعية |
| أي واجهة ذكاء اصطناعي | قدّم RESEARCHCLAW_AGENTS.md كسياق → الوكيل يبدأ تلقائياً |
Phase A: تحديد نطاق البحث Phase E: تنفيذ التجارب 1. TOPIC_INIT 12. EXPERIMENT_RUN 2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← إصلاح ذاتي Phase B: اكتشاف الأدبيات Phase F: التحليل والقرار 3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← متعدد الوكلاء 4. LITERATURE_COLLECT ← API حقيقي 15. RESEARCH_DECISION ← PIVOT/REFINE 5. LITERATURE_SCREEN [بوابة] 6. KNOWLEDGE_EXTRACT Phase G: كتابة الورقة 16. PAPER_OUTLINE Phase C: توليف المعرفة 17. PAPER_DRAFT 7. SYNTHESIS 18. PEER_REVIEW ← فحص الأدلة 8. HYPOTHESIS_GEN ← نقاش 19. PAPER_REVISION Phase D: تصميم التجارب Phase H: الإنهاء 9. EXPERIMENT_DESIGN [بوابة] 20. QUALITY_GATE [بوابة] 10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE 11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX 23. CITATION_VERIFY ← فحص الصلة
مراحل البوابات (5، 9، 20) تتوقف للحصول على موافقة بشرية أو موافقة تلقائية مع
--auto-approve. عند الرفض، يعود خط الأنابيب للخلف.
حلقات القرار: يمكن للمرحلة 15 تفعيل REFINE (→ المرحلة 13) أو PIVOT (→ المرحلة 8)، مع إصدار تلقائي للمخرجات.
| الطور | ما يحدث |
|---|---|
| A: تحديد النطاق | يفكك نموذج اللغة الموضوع إلى شجرة مشاكل منظمة مع أسئلة بحثية |
| A+: العتاد | كشف تلقائي لـ GPU (NVIDIA CUDA / Apple MPS / CPU فقط)، تحذير إذا كان العتاد المحلي محدوداً، تكييف توليد الكود وفقاً لذلك |
| B: الأدبيات | بحث متعدد المصادر (أولوية arXiv، ثم Semantic Scholar) عن أوراق حقيقية، فرز حسب الصلة، استخلاص بطاقات معرفية |
| C: التوليف | تجميع النتائج، تحديد فجوات البحث، توليد فرضيات قابلة للاختبار عبر نقاش متعدد الوكلاء |
| D: التصميم | تصميم خطة التجارب، توليد كود Python قابل للتشغيل واعٍ بالعتاد (مستوى GPU → اختيار الحزم)، تقدير احتياجات الموارد |
| E: التنفيذ | تشغيل التجارب في بيئة معزولة، كشف NaN/Inf وأخطاء وقت التشغيل، إصلاح ذاتي للكود عبر إصلاح مُستهدف بنموذج اللغة |
| F: التحليل | تحليل متعدد الوكلاء للنتائج؛ قرار مستقل PROCEED / REFINE / PIVOT مع المبررات |
| G: الكتابة | مخطط → صياغة قسم بقسم (5,000-6,500 كلمة) → مراجعات أقران (مع اتساق المنهجية والأدلة) → مراجعة مع حماية الطول |
| H: الإنهاء | بوابة جودة، أرشفة المعرفة، تصدير LaTeX مع قالب المؤتمر، التحقق من سلامة الاستشهادات + الصلة |
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .
cp config.researchclaw.example.yaml config.arc.yaml
project:
name: "my-research"
research:
topic: "Your research topic here"
llm:
base_url: "https://api.openai.com/v1" # Any OpenAI-compatible endpoint
api_key_env: "OPENAI_API_KEY" # Env var name containing your key
primary_model: "gpt-4o" # Any model your endpoint supports
fallback_models: ["gpt-4o-mini"]
s2_api_key: "" # Optional: Semantic Scholar API key for higher rate limits
experiment:
mode: "sandbox"
sandbox:
python_path: ".venv/bin/python"
# تعيين مفتاح API
export OPENAI_API_KEY="sk-..."
# 🚀 تشغيل خط الأنابيب الكامل
researchclaw run --config config.arc.yaml --auto-approve
# 🎯 تحديد موضوع مباشرة
researchclaw run --config config.arc.yaml --topic "Transformer attention for time series" --auto-approve
# ✅ التحقق من التهيئة
researchclaw validate --config config.arc.yaml
# ⏩ الاستئناف من مرحلة محددة
researchclaw run --config config.arc.yaml --from-stage PAPER_OUTLINE --auto-approve
المخرجات → artifacts/rc-YYYYMMDD-HHMMSS-<hash>/ مع دليل فرعي لكل مرحلة.
جميع المخرجات النهائية للمستخدم تُجمع تلقائياً في مجلد deliverables/ واحد:
artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/ ├── paper_final.md # الورقة النهائية (Markdown) ├── paper.tex # LaTeX جاهز للمؤتمر ├── references.bib # قائمة مراجع BibTeX موثّقة (مُنقّحة تلقائياً) ├── neurips_2025.sty # ملف نمط المؤتمر (مختار تلقائياً) ├── code/ # كود التجارب + requirements.txt ├── verification_report.json # تقرير سلامة الاستشهادات ├── charts/ # رسوم بيانية للنتائج (مقارنة الظروف، أشرطة الخطأ) └── manifest.json # فهرس المخرجات مع البيانات الوصفية
مجلد deliverables/ جاهز للترجمة — يتضمن ملفات .sty و .bst الخاصة بالمؤتمر بحيث يمكنك ترجمة paper.tex مباشرة باستخدام pdflatex + bibtex أو رفعه إلى Overleaf بدون تحميل أي شيء إضافي.
تستعلم المرحلة 4 من واجهات API أكاديمية حقيقية — وليس أوراقاً مُتخيّلة من نموذج اللغة. تستخدم استراتيجية أولوية arXiv لتجنب تحديد معدل Semantic Scholar.
@article{cite_key, ...} مع بيانات وصفية حقيقيةfrom researchclaw.literature import search_papers
papers = search_papers("transformer attention mechanisms", limit=20)
for p in papers:
print(f"{p.title} ({p.year}) — cited {p.citation_count}x")
print(p.to_bibtex())
بعد كتابة الورقة، تقوم المرحلة 23 بـالتحقق الفعلي من كل مرجع من حيث السلامة والصلة:
| الطبقة | الطريقة | ما تتحقق منه |
|---|---|---|
| L1 | arXiv API id_list | الأوراق ذات معرّفات arXiv — تتحقق من وجود المعرّف فعلاً |
| L2 | CrossRef /works/{doi} + احتياطي DataCite | الأوراق ذات DOI — تتحقق من أن DOI يعمل والعنوان يتطابق (DataCite تتعامل مع DOI الخاص بـ arXiv 10.48550) |
| L3 | Semantic Scholar + بحث عنوان arXiv | جميع المتبقية — مطابقة عناوين ضبابية (≥0.80 تشابه) |
| L4 | تقييم صلة بنموذج اللغة | جميع المراجع الموثّقة — تقييم الصلة الموضوعية بالبحث |
كل مرجع → VERIFIED ✅ · SUSPICIOUS ⚠️ · HALLUCINATED ❌ · SKIPPED ⏭️ · LOW_RELEVANCE 📉
تنظيف تلقائي: الاستشهادات المُلفّقة تُزال بصمت من نص الورقة (بدون علامات [HALLUCINATED]). إدخالات قائمة المراجع غير المُستشهد بها تُحذف. ملف references.bib النهائي يحتوي فقط على مراجع موثّقة ومُستشهد بها.
تكتشف المرحلة 1 تلقائياً قدرات GPU المحلية وتكيّف خط الأنابيب بالكامل:
| المستوى | الكشف | السلوك |
|---|---|---|
| عالي | GPU من NVIDIA مع ≥8 جيجابايت VRAM | توليد كود PyTorch/GPU كامل، تثبيت torch تلقائياً إذا كان مفقوداً |
| محدود | NVIDIA <8 جيجابايت أو Apple MPS | تجارب خفيفة (<1 مليون معامل، ≤20 حقبة)، تحذير للمستخدم |
| CPU فقط | لم يُكتشف GPU | NumPy/sklearn فقط، بدون استيراد torch، تحذير مع توصية بـ GPU عن بعد |
ملف تعريف العتاد يُحفظ في stage-01/hardware_profile.json ويؤثر على توليد الكود واستيرادات البيئة المعزولة وقيود الأوامر النصية.
experiment_harness.py غير قابل للتعديل يُحقن في البيئة المعزولة مع حارس وقت should_stop()، رفض NaN/Inf في report_metric()، وكتابة النتائج في finalize() (مستوحى من نمط التقييم غير القابل للتعديل في karpathy/autoresearch)results.json مع مقاييس مُحددة النوع (وليس فقط تحليل stdout)is_metric_name())يستهدف خط أنابيب الكتابة معايير NeurIPS/ICML/ICLR (9+ صفحات، 5,000-6,500 كلمة):
export:
target_conference: "neurips_2025" # or "iclr_2026" or "icml_2026"
| المؤتمر | حزمة النمط | الأعمدة |
|---|---|---|
| NeurIPS 2025 | neurips_2025 | 1 |
| ICLR 2026 | iclr2026_conference | 1 |
| ICML 2026 | icml2026 | 2 |
| NeurIPS 2024 | neurips_2024 | 1 |
| ICLR 2025 | iclr2025_conference | 1 |
| ICML 2025 | icml2025 | 2 |
محوّل Markdown → LaTeX يتعامل مع: عناوين الأقسام (مع إزالة تكرار الترقيم التلقائي)، الرياضيات المضمّنة/المعروضة، الخط العريض/المائل، القوائم، الجداول (مع \caption/\label)، الأشكال (\includegraphics)، كتل الكود (آمنة لـ Unicode)، المراجع التبادلية، ومراجع \cite{}.
| البوابة | المرحلة | عند الرفض → العودة إلى |
|---|---|---|
| فرز الأدبيات | 5 | إعادة جمع الأدبيات (المرحلة 4) |
| تصميم التجارب | 9 | إعادة توليد الفرضيات (المرحلة 8) |
| بوابة الجودة | 20 | إعادة كتابة الورقة من المخطط (المرحلة 16) |
استخدم --auto-approve لتخطي جميع البوابات، أو هيّئ مراحل محددة في security.hitl_required_stages.
# === المشروع ===
project:
name: "my-research" # معرّف المشروع
mode: "docs-first" # docs-first | semi-auto | full-auto
# === البحث ===
research:
topic: "..." # موضوع البحث (مطلوب)
domains: ["ml", "nlp"] # مجالات البحث للبحث في الأدبيات
daily_paper_count: 8 # عدد الأوراق المستهدف لكل استعلام بحث
quality_threshold: 4.0 # الحد الأدنى لدرجة جودة الأوراق
# === وقت التشغيل ===
runtime:
timezone: "America/New_York" # للطوابع الزمنية
max_parallel_tasks: 3 # حد التجارب المتزامنة
approval_timeout_hours: 12 # مهلة مرحلة البوابة
retry_limit: 2 # عدد إعادة المحاولة عند فشل المرحلة
# === نموذج اللغة ===
llm:
provider: "openai-compatible" # نوع المزوّد
base_url: "https://..." # نقطة نهاية API (مطلوب)
api_key_env: "OPENAI_API_KEY" # متغير بيئة لمفتاح API (مطلوب)
api_key: "" # أو ضع المفتاح هنا مباشرة
primary_model: "gpt-4o" # النموذج الأساسي
fallback_models: ["gpt-4o-mini"] # سلسلة النماذج الاحتياطية
s2_api_key: "" # مفتاح Semantic Scholar API (اختياري، حدود معدل أعلى)
# === التجارب ===
experiment:
mode: "sandbox" # simulated | sandbox | docker | ssh_remote
time_budget_sec: 600 # أقصى وقت تنفيذ لكل تشغيل (الافتراضي: 600 ثانية)
max_iterations: 10 # أقصى عدد تكرارات التحسين
metric_key: "val_loss" # اسم المقياس الأساسي
metric_direction: "minimize" # minimize | maximize
sandbox:
python_path: ".venv/bin/python"
gpu_required: false
allowed_imports: [math, random, json, csv, numpy, torch, sklearn]
max_memory_mb: 4096
docker:
image: "researchclaw/experiment:latest"
network_policy: "setup_only" # none | setup_only | pip_only | full
gpu_enabled: true
memory_limit_mb: 8192
auto_install_deps: true # كشف تلقائي للاستيراد → requirements.txt
ssh_remote:
host: "" # اسم مضيف خادم GPU
gpu_ids: [] # معرّفات GPU المتاحة
remote_workdir: "/tmp/researchclaw_experiments"
# === التصدير ===
export:
target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026
authors: "Anonymous"
bib_file: "references"
# === الأوامر النصية ===
prompts:
custom_file: "" # مسار ملف YAML للأوامر المخصصة (فارغ = الافتراضي)
# === الأمان ===
security:
hitl_required_stages: [5, 9, 20] # المراحل التي تتطلب موافقة بشرية
allow_publish_without_approval: false
redact_sensitive_logs: true
# === قاعدة المعرفة ===
knowledge_base:
backend: "markdown" # markdown | obsidian
root: "docs/kb"
# === الإشعارات ===
notifications:
channel: "console" # console | discord | slack
target: ""
# === جسر OpenClaw ===
openclaw_bridge:
use_cron: false # عمليات تشغيل بحث مجدولة
use_message: false # إشعارات التقدم
use_memory: false # استمرارية المعرفة عبر الجلسات
use_sessions_spawn: false # إطلاق جلسات فرعية متوازية
use_web_fetch: false # بحث ويب مباشر
use_browser: false # جمع الأوراق عبر المتصفح
مستوحى من:
MIT — راجع LICENSE للتفاصيل.
بُني بـ 🦞 بواسطة فريق AutoResearchClaw