GnamiAI exécute votre agent IA dans un bac à sable renforcé, s'arrête à chaque action risquée, et offre d'emblée des compétences signées, une mémoire sans configuration et des passations multi-agents.
vous › résume les PR de la semaine et envoie-le dans #eng agent › résumé rédigé · 6 PR · 412 mots ⚠ approbation requise · DESTRUCTEUR · integration.slack.post résumé : publier le message dans #eng (42 membres) aperçu : « Livré cette semaine : refonte de l'auth, ... » [a] approuver avec passkey [r] refuser vous › a agent › ✓ publié · id : C084…Z9 · 0,12s
Chaque fonctionnalité sert une des six garanties fondamentales. Aucune n'est facultative.
Capacités basées sur les rôles. Votre agent ne touche jamais à un octet ou à un dollar qu'il n'a pas reçu explicitement.
Chaque action destructrice s'arrête pour une approbation signée cryptographiquement depuis votre appareil. Aucune exception.
Une vraie interface pour les approbations, la mémoire, les budgets et les intégrations. Aucun bricolage de clavardage.
Chaque compétence est analysée statiquement, révisée manuellement et signée avec Ed25519 avant l'installation.
RAG prêt à l'emploi. Vos conversations se résument et s'indexent toutes seules — aucune chirurgie JSON requise.
Les agents spécialisés se passent les tâches avec des tranches de contexte à capacité limitée. Confiance épinglée, aucune fédération brumeuse.
Les autres produits d'agents vous demandent d'installer un processus qui contrôle votre terminal. GnamiAI hébergé s'exécute entièrement dans le navigateur — l'exécution shell n'est pas désactivée, elle n'est pas enregistrée. La capacité n'existe tout simplement pas dans la version hébergée.
Créer votre espaceGnamiAI est un moteur d'agent IA axé sur la sécurité qui s'exécute dans votre navigateur. Il donne à votre agent des permissions granulaires, met en pause les actions destructrices pour une approbation humaine, et vous permet de composer des sous-agents spécialisés, des compétences, une mémoire à long terme et des exécutions planifiées — sans rien installer localement.
L'application hébergée est gratuite. Vous apportez votre propre clé API de fournisseur (OpenAI, Anthropic, OpenRouter ou un Ollama local), qui est facturée directement par ce fournisseur selon ses tarifs.
OpenAI, Anthropic, OpenRouter (accès à la plupart des modèles ouverts et fermés) et Ollama (auto-hébergé). Vous pouvez changer de fournisseur à chaque tour et choisir des modèles dans le catalogue de chaque fournisseur.
Oui, chiffrées au repos avec AES-256-GCM à l'aide d'une clé détenue par le serveur. Un vidage de base de données seul ne fuite pas vos identifiants. Vous pouvez déconnecter n'importe quel fournisseur depuis les Paramètres et la ligne est supprimée immédiatement.
Non. Les transcriptions vivent dans le localStorage de votre navigateur. Le serveur transmet chaque tour à votre fournisseur choisi et ne conserve pas les corps de requête ou de réponse. Voir la page Confidentialité pour la carte complète des données.
Oui — Ollama est un fournisseur de première classe et vos modèles restent sur votre machine. Puisque le serveur GnamiAI hébergé s'exécute sur Vercel, il doit atteindre votre instance Ollama par le réseau; le plus simple est un tunnel (Cloudflare Tunnel, ngrok) qui expose votre ollama serve local à une URL publique. L'inférence se fait toujours localement sur votre matériel — le tunnel ne transporte que la requête. Les gardes SSRF bloquent les cibles de réseau privé et de bouclage, c'est pourquoi un http://localhost:11434 brut ne fonctionnera pas sur la version hébergée.
Une compétence est un simple fichier SKILL.md qui apprend à l'agent comment faire quelque chose de précis (rédiger des changelogs, rédiger des notes de version, générer des commits conventionnels). Un sous-agent est une spécialisation nommée avec son propre prompt système et sa préférence de modèle, épinglée dans le clavardage avec /agent <nom>.
Il peut créer des sous-agents, installer des compétences et se souvenir de faits lorsque vous le demandez, par des blocs JSON structurés gnami-action. Les opérations destructrices s'arrêtent pour une approbation dans l'interface avant d'être exécutées.