Matrice de capacités et limitations
Ce que nAIxus peut faire aujourd'hui, ce qui est prévu, et ce qui est hors périmètre.
Ce document est un outil de cadrage pour les phases d'avant-projet et de recueil de besoins. Quand un client décrit un besoin, ce tableau permet de répondre rapidement : "oui, on sait faire", "c'est prévu", ou "ce n'est pas dans le périmètre".
Dernière mise à jour : avril 2026
| Capacité | Détails |
|---|
| Éditeur visuel drag-and-drop | Canvas interactif pour construire des flows |
| Collaboration temps réel | Plusieurs utilisateurs sur le même flow simultanément |
| Système d'expressions | Injection de variables dynamiques {{ variable }} dans tout champ |
| Annotations | Commentaires et zones de texte sur le canvas |
| Templates de flows | Configurations réutilisables (Customer Support, Document Q&A, Lead Qualification…) |
| Import/Export JSON | Export et import de flows au format JSON |
| Node | Ce qu'il fait |
|---|
| Agent | Appel LLM avec prompt, outils, temperature, streaming |
| Condition | Branchement logique (if/else) avec expressions |
| Loop | Itération sur une liste d'éléments |
| HTTP Request | Appel API externe (GET, POST, PUT, DELETE, PATCH) |
| Code | Exécution de code Python personnalisé |
| Set Variable | Définition/modification de variables de contexte |
| Human Input (HITL) | Pause du flow en attente d'une saisie humaine |
| Parse Document | Extraction de texte depuis PDF, Word, etc. |
| Trigger Manual | Démarrage manuel pour tests |
| Trigger from Channel | Démarrage via un channel externe |
| Fournisseur | Modèles | Hébergement |
|---|
| OpenAI | GPT-4o, GPT-4 Turbo, GPT-3.5 | Cloud (US) |
| Anthropic | Claude 3.5 Sonnet, Claude 3 Opus/Haiku | Cloud (US) |
| AWS Bedrock | Claude, Titan, Llama 2 | Cloud (multi-région) |
| IBM WatsonX | Granite, Llama | Cloud (EU possible) |
| Ollama | Llama, Mistral, tout modèle GGUF | On-premise |
| vLLM | Tout modèle HuggingFace | On-premise |
| Channel | État | Public cible |
|---|
| SDK (API REST) | ✅ Disponible | Développeurs, intégration backend |
| Webchat (widget) | ✅ Disponible | Utilisateurs finaux, sites web |
| Slack | ✅ Disponible | Équipes internes |
| WhatsApp | ✅ Disponible | Service client omnicanal |
| Microsoft Teams | ✅ Disponible | Collaboration entreprise |
| Capacité | Détails |
|---|
| Isolation par tenant | Chaque client a son espace, ses données, ses clés |
| Chiffrement des secrets | Fernet (AES-128) au repos |
| Authentification JWT | Tokens portant tenant_id et rôles |
| Environnements séparés | Dev / Staging / Prod avec clés API distinctes |
| Capacité | Description | Horizon |
|---|
| RAG (Retrieval-Augmented Generation) | Recherche documentaire + génération : Q&A sur des bases de documents client | En cours |
| White-labeling | Logo, couleurs et domaine personnalisés par client | Prochain sprint |
| SSO entreprise (SAML/OIDC) | Connexion via Azure AD, Okta, etc. | Prochain sprint |
| RBAC granulaire | Rôles Admin / Développeur / Lecteur par workspace | Avec le SSO |
| Connecteurs entreprise | SAP, Salesforce, ServiceNow, Oracle | S2 2026 |
| Node Guardrails | Détection et masquage de PII, filtrage de contenu | S2 2026 |
| Node Formulaire | Collecte de données structurées via formulaire dans le chat | S2 2026 |
| Mémoire conversationnelle | Rétention de contexte sur plusieurs conversations | S2 2026 |
| Sous-flows (workflow) | Appel de flows imbriqués | Planifié |
| Analytics | Tableau de bord d'usage et de performance | Planifié |
| Limitation | Impact | Contournement possible |
|---|
| Pas de RBAC granulaire | Tous les membres d'un workspace voient tout | Utiliser des workspaces séparés |
| Pas de SSO entreprise | Connexion par email/mot de passe uniquement | Keycloak en cours d'intégration |
| Pas de versioning de flows | Pas de "v1, v2" avec rollback | Export JSON manuel avant modification |
| Pas de planification (cron) | Les flows ne se déclenchent pas automatiquement à une heure | Cron externe appelant l'API SDK |
| Pas de connecteurs natifs entreprise | Pas de SAP, Salesforce out-of-the-box | Node HTTP Request pour appeler leurs APIs |
| Pas de traitement d'images/audio | Uniquement du texte et des documents (PDF, Word) | Passer par des APIs spécialisées via HTTP |
| Pas d'entraînement de modèles | nAIxus utilise des modèles existants, ne les crée pas | Hors périmètre |
| Pas d'exécution parallèle | Les nodes s'exécutent séquentiellement | — |
| Pas d'API publique documentée (OpenAPI) | L'API existe mais pas de doc auto-générée | Documentation manuelle disponible |
| Contrainte | Valeur |
|---|
| Taille max d'un message (prompt + réponse) | Dépend du modèle (128K–200K tokens) |
| Nombre de nodes par flow | Pas de limite stricte, mais > 50 nodes dégrade l'UX |
| Exécutions simultanées | Contrôlé par sémaphore (configuration serveur) |
| Rétention des logs d'exécution | Configurable par déploiement |
En recueil de besoins : Quand le client dit "je veux X", cherchez X dans les tableaux ci-dessus.
- ✅ Disponible → Vous pouvez le promouvoir et le démontrer.
- 🔜 Prévu → Vous pouvez le mentionner avec une date indicative. Ne l'engagez pas ferme.
- ❌ Limitation → Vérifiez s'il y a un contournement. Si non, c'est un critère de go/no-go.
En cadrage de projet : Identifiez les limitations qui impactent le cas d'usage et listez-les comme risques dans le dossier de cadrage.