Keiko
Keiko est le personnage IA de la société. Elle se compose d'une suite d’outils et d’agents IA développés en interne. Elle est composée d’un Manager d'agents et de 16 sous-agents spécialisés. Découvrez-en quelques-uns ci-dessous.
Gestionnaire d'agents
Fait le lien entre Olivier et les sous-agents. Reçoit les demandes, identifie le(s) sous-agent(s) le(s) plus pertinent(s) et leur(s) délègue les tâches.
Agent de recommandation
Conseiller stratégique, objectif et sans complaisance, fournissant des analyses claires et des recommandations concrètes.
Agent réseaux sociaux
Planifie des contenus et stratégies réseaux sociaux. Propose des plans d’action détaillés pour exécution et fait le suivi des analytiques.
Agent Coach IA
Suggère le contenu des sessions de coaching en fonction du client, de son activité et de ses connaissances en IA de manière anonymisée.
Agent contenu audio-visuel
Génère, édite et gère du contenu visuel et vidéo : création avec ou sans avatar, transcription, montage ou génération d’images selon les besoins.
Agent de recherche
Effectue des recherches web ciblées ou approfondies, génère des résumés, rapports détaillés avec sources et précise les limites d’interprétation.
Agent infrastructure technique
Pilote l’inventaire technique (outils, systèmes, logiciels) de Keiko for Business et des outils utilisés par nos clients. Automatise le suivi via des outils dédiés.
Agent gestionnaire des processus
Gère les automatismes de Keiko for Business pour les tâches répétitives.
Agent gestionnaire de la base de connaissances
Supervise en continu les nouveaux modèles IA pour assurer une connaissance de modèles mise à jour quotidiennement.
Les modèles d’intelligence artificielle qui propulsent Keiko
Chaque agent a besoin d'un moteur, un modèle d'intelligence artificielle qui lui permet de remplir ses fonctions. Certains modèles sont destinés à des fonctions spécifiques, d'autres sont plus génériques.
Vous trouverez ci dessous quelques-uns de ces modèles.
Google: Gemini 2.0 Flash
Spécialisé dans le traitement multimodal* ultra-rapide avec une fenêtre de contexte** d'1 million de tokens***, ce modèle excelle particulièrement dans l'analyse simultanée de texte, images, audio et vidéo.
Anthropic: Claude Sonnet 4
Modèle de pointe optimisé pour les tâches de programmation complexes. Il dispose d'une capacité de planification à long terme exceptionnelle.
Google: Gemini 2.5 Pro
Modèle expérimental axé sur le raisonnement approfondi et la résolution de problèmes éthiques complexes, intégrant de manière transparente textes, images et résultats de recherche.
Anthropic: Claude 3.7 Sonnet
Premier modèle de "raisonnement hybride" capable de basculer fluidement entre réponses immédiates et analyse approfondie étape par étape selon la complexité de la tâche.
OpenAI: GPT-4.1
Modèle phare optimisé pour les tâches complexes.
Son adhésion améliorée aux instructions structurées (comme les schémas JSON****) simplifie significativement la création d'agents et de workflows automatisés.
Wan-video: wan-2.1-1.3b
Modèle spécialisé dans la génération vidéo haute qualité.
Il prend en charge de multiples tâches : Text-to-Video, Image-to-Video, édition vidéo, et même génération Text-to-Image et Video-to-Audio.
Anthropic: Claude Opus 4
Modèle de codage ultra-performant. Il intègre des capacités de planification à long terme et de raisonnement autonome, idéal pour les cas d'usage nécessitant un effort prolongé.
Black forest labs : flux
Suite de modèles de génération d'images révolutionnaire, offrant un réalisme et des détails exceptionnels qui surpassent souvent les autres modèles similaires.
OpenAI: o3
Modèle hautement polyvalent, très performant en mathématiques. Ses capacités de raisonnement visuel intégrées lui permettent de combiner analyse visuelle et textuelle directement dans sa chaîne de raisonnement.
OpenAI: GPT-4.1 Mini
Modèle intermédiaire équilibrant performance et coût.
Optimisé pour les interactions rapides et économiques, il excelle dans le traitement de documents longs et la récupération d'informations spécifiques.
OpenAI: GPT-4.5
Modèle conversationnel axé sur la fluidité. Contrairement aux modèles de raisonnement par chaîne de pensée, il privilégie l'intuition linguistique pour des réponses plus naturelles et conversationnelles. Idéal pour la rédaction.
OpenAI: GPT-4o
Modèle multimodal* "omni" capable de traiter simultanément audio, vision et texte avec des temps de réponse rapides.
Il excelle dans la reconnaissance vocale et visuelle avancée.
Lexique
* Traitement multimodal : C’est la capacité d’une intelligence artificielle à comprendre et utiliser plusieurs types d’informations en même temps, comme du texte, des images, des sons ou des vidéos.
** Fenêtre de contexte : C’est la quantité maximale d’informations que l’IA peut retenir et utiliser en même temps pour répondre à une question ou continuer une conversation.
*** Token: petit morceau de texte (comme un mot, une partie de mot ou un signe) que l’intelligence artificielle découpe pour mieux comprendre et traiter le langage.
**** JSON: format simple pour organiser et échanger des données en utilisant du texte lisible par l'homme.