logo
0
0
WeChat Login
艺创AIGC<348310633@qq.com>
feat(ui): 添加顶部横幅和返回顶部组件,更新品牌名称为"必创"

必创API

必创API

🍥 Passerelle de modèles étendus de nouvelle génération et système de gestion d'actifs d'IA

中文 | English | Français | 日本語

licence version docker docker GoReportCard

Calcium-Ion%2Fnew-api | Trendshift

Démarrage rapideFonctionnalités clésDéploiementDocumentationAide

📝 Description du projet

NOTE

Il s'agit d'un projet open-source développé sur la base de One API, maintenu par l'équipe 必创API

IMPORTANT


🤝 Partenaires de confiance

Sans ordre particulier

Cherry Studio Université de Pékin UCloud Alibaba Cloud IO.NET


🙏 Remerciements spéciaux

JetBrains Logo

Merci à JetBrains pour avoir fourni une licence de développement open-source gratuite pour ce projet


🚀 Démarrage rapide

Utilisation de Docker Compose (recommandé)

# Cloner le projet git clone https://gitee.com/buidai/buidapi.git cd buidapi # Modifier la configuration docker-compose.yml nano docker-compose.yml # Démarrer le service docker-compose up -d
Utilisation des commandes Docker
# Tirer la dernière image docker pull buidapi/buidai-api:latest # Utilisation de SQLite (par défaut) docker run --name buidai-api -d --restart always \ -p 3000:3000 \ -e TZ=Asia/Shanghai \ -v ./data:/data \ buidapi/buidai-api:latest # Utilisation de MySQL docker run --name buidai-api -d --restart always \ -p 3000:3000 \ -e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi" \ -e TZ=Asia/Shanghai \ -v ./data:/data \ buidapi/buidai-api:latest

💡 Astuce: -v ./data:/data sauvegardera les données dans le dossier data du répertoire actuel, vous pouvez également le changer en chemin absolu comme -v /your/custom/path:/data


🎉 Après le déploiement, visitez http://localhost:3000 pour commencer à utiliser!

📖 Pour plus de méthodes de déploiement, veuillez vous référer à Guide de déploiement


📚 Documentation

Navigation rapide:

CatégorieLien
🚀 Guide de déploiementDocumentation d'installation
⚙️ Configuration de l'environnementVariables d'environnement
📡 Documentation de l'APIDocumentation de l'API
❓ FAQFAQ
💬 Interaction avec la communautéCanaux de communication

✨ Fonctionnalités clés

Pour les fonctionnalités détaillées, veuillez vous référer à Présentation des fonctionnalités |

🎨 Fonctions principales

FonctionnalitéDescription
🎨 Nouvelle interface utilisateurConception d'interface utilisateur moderne
🌍 MultilinguePrend en charge le chinois, l'anglais, le français, le japonais
🔄 Compatibilité des donnéesComplètement compatible avec la base de données originale de One API
📈 Tableau de bord des donnéesConsole visuelle et analyse statistique
🔒 Gestion des permissionsRegroupement de jetons, restrictions de modèles, gestion des utilisateurs

💰 Paiement et facturation

  • ✅ Recharge en ligne (EPay, Stripe)
  • ✅ Tarification des modèles de paiement à l'utilisation
  • ✅ Prise en charge de la facturation du cache (OpenAI, Azure, DeepSeek, Claude, Qwen et tous les modèles pris en charge)
  • ✅ Configuration flexible des politiques de facturation

🔐 Autorisation et sécurité

  • 🤖 Connexion par autorisation LinuxDO
  • 📱 Connexion par autorisation Telegram
  • 🔑 Authentification unifiée OIDC

🚀 Fonctionnalités avancées

Prise en charge des formats d'API:

Routage intelligent:

  • ⚖️ Sélection aléatoire pondérée des canaux
  • 🔄 Nouvelle tentative automatique en cas d'échec
  • 🚦 Limitation du débit du modèle pour les utilisateurs

Conversion de format:

  • 🔄 OpenAI Compatible ⇄ Claude Messages
  • 🔄 OpenAI Compatible → Google Gemini
  • 🔄 Google Gemini → OpenAI Compatible - Texte uniquement, les appels de fonction ne sont pas encore pris en charge
  • 🚧 OpenAI Compatible ⇄ OpenAI Responses - En développement
  • 🔄 Fonctionnalité de la pensée au contenu

Prise en charge de l'effort de raisonnement:

Voir la configuration détaillée

Modèles de la série o d'OpenAI:

  • o3-mini-high - Effort de raisonnement élevé
  • o3-mini-medium - Effort de raisonnement moyen
  • o3-mini-low - Effort de raisonnement faible

Modèles de pensée de Claude:

  • claude-3-7-sonnet-20250219-thinking - Activer le mode de pensée

Modèles de la série Google Gemini:

  • gemini-2.5-flash-thinking - Activer le mode de pensée
  • gemini-2.5-flash-nothinking - Désactiver le mode de pensée
  • gemini-2.5-pro-thinking - Activer le mode de pensée
  • gemini-2.5-pro-thinking-128 - Activer le mode de pensée avec budget de pensée de 128 tokens
  • Vous pouvez également ajouter les suffixes -low, -medium ou -high aux modèles Gemini pour fixer le niveau d’effort de raisonnement (sans suffixe de budget supplémentaire).

🤖 Prise en charge des modèles

Pour les détails, veuillez vous référer à Documentation de l'API - Interface de relais

Type de modèleDescriptionDocumentation
🤖 OpenAI GPTssérie gpt-4-gizmo-*-
🎨 Midjourney-ProxyMidjourney-Proxy(Plus)Documentation
🎵 Suno-APISuno APIDocumentation
🔄 RerankCohere, JinaDocumentation
💬 ClaudeFormat MessagesDocumentation
🌐 GeminiFormat Google GeminiDocumentation
🔧 DifyMode ChatFlow-
🎯 PersonnaliséPrise en charge de l'adresse d'appel complète-

📡 Interfaces prises en charge

Voir la liste complète des interfaces

🚢 Déploiement

TIP

Dernière image Docker: buidapi/buidai-api:latest

📋 Exigences de déploiement

ComposantExigence
Base de données localeSQLite (Docker doit monter le répertoire /data)
**Base de données distanteMySQL ≥ 5.7.8 ou PostgreSQL ≥ 9.6
Moteur de conteneurDocker / Docker Compose

⚙️ Configuration des variables d'environnement

Configuration courante des variables d'environnement
Nom de variableDescriptionValeur par défaut
SESSION_SECRETSecret de session (requis pour le déploiement multi-machines)
CRYPTO_SECRETSecret de chiffrement (requis pour Redis)-
SQL_DSNChaine de connexion à la base de données-
REDIS_CONN_STRINGChaine de connexion Redis-
STREAMING_TIMEOUTDélai d'expiration du streaming (secondes)300
STREAM_SCANNER_MAX_BUFFER_MBTaille max du buffer par ligne (Mo) pour le scanner SSE ; à augmenter quand les sorties image/base64 sont très volumineuses (ex. images 4K)64
MAX_REQUEST_BODY_MBTaille maximale du corps de requête (Mo, comptée après décompression ; évite les requêtes énormes/zip bombs qui saturent la mémoire). Dépassement ⇒ 41332
AZURE_DEFAULT_API_VERSIONVersion de l'API Azure2025-04-01-preview
ERROR_LOG_ENABLEDInterrupteur du journal d'erreursfalse
PYROSCOPE_URLAdresse du serveur Pyroscope-
PYROSCOPE_APP_NAMENom de l'application Pyroscopenew-api
PYROSCOPE_BASIC_AUTH_USERUtilisateur Basic Auth Pyroscope-
PYROSCOPE_BASIC_AUTH_PASSWORDMot de passe Basic Auth Pyroscope-
PYROSCOPE_MUTEX_RATETaux d'échantillonnage mutex Pyroscope5
PYROSCOPE_BLOCK_RATETaux d'échantillonnage block Pyroscope5
HOSTNAMENom d'hôte tagué pour Pyroscopenew-api

📖 Configuration complète: Documentation des variables d'environnement

🔧 Méthodes de déploiement

Méthode 1: Docker Compose (recommandé)
# Cloner le projet git clone https://gitee.com/buidai/buidapi.git cd buidapi # Modifier la configuration nano docker-compose.yml # Démarrer le service docker-compose up -d
Méthode 2: Commandes Docker

Utilisation de SQLite:

docker run --name buidai-api -d --restart always \ -p 3000:3000 \ -e TZ=Asia/Shanghai \ -v ./data:/data \ buidapi/buidai-api:latest

Utilisation de MySQL:

docker run --name buidai-api -d --restart always \ -p 3000:3000 \ -e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi" \ -e TZ=Asia/Shanghai \ -v ./data:/data \ buidapi/buidai-api:latest

💡 Explication du chemin:

  • ./data:/data - Chemin relatif, données sauvegardées dans le dossier data du répertoire actuel
  • Vous pouvez également utiliser un chemin absolu, par exemple : /your/custom/path:/data
Méthode 3: Panneau BaoTa
  1. Installez le panneau BaoTa (version 9.2.0 ou supérieure), recherchez New-API dans le magasin d'applications et installez-le.
  2. Recherchez New-API dans le magasin d'applications et installez-le.

📖 Tutoriel avec des images

⚠️ Considérations sur le déploiement multi-machines

WARNING

  • Doit définir SESSION_SECRET - Sinon l'état de connexion sera incohérent sur plusieurs machines
  • Redis partagé doit définir CRYPTO_SECRET - Sinon les données ne pourront pas être déchiffrées

🔄 Nouvelle tentative de canal et cache

Configuration de la nouvelle tentative: Paramètres → Paramètres de fonctionnement → Paramètres généraux → Nombre de tentatives en cas d'échec

Configuration du cache:

  • REDIS_CONN_STRING: Cache Redis (recommandé)
  • MEMORY_CACHE_ENABLED: Cache mémoire

🔗 Projets connexes

Projets en amont

ProjetDescription
One APIBase du projet original
Midjourney-ProxyPrise en charge de l'interface Midjourney

Outils d'accompagnement

ProjetDescription
neko-api-key-toolOutil de recherche de quota d'utilisation avec une clé

💬 Aide et support

📖 Ressources de documentation

RessourceLien
📘 FAQFAQ
💬 Interaction avec la communautéCanaux de communication
🐛 Commentaires sur les problèmesCommentaires sur les problèmes
📚 Documentation complèteDocumentation officielle

🤝 Guide de contribution

Bienvenue à toutes les formes de contribution!

  • 🐛 Signaler des bogues
  • 💡 Proposer de nouvelles fonctionnalités
  • 📝 Améliorer la documentation
  • 🔧 Soumettre du code

🌟 Historique des étoiles

Graphique de l'historique des étoiles


💖 Merci d'utiliser 必创API

Si ce projet vous est utile, bienvenue à nous donner une ⭐️ Étoile!

Documentation officielleCommentaires sur les problèmesDernière version

Construit avec ❤️ par l'équipe 必创API