Les modèles Transformers ont permis des résultats extraordinaires malgré de lourdes inefficacités. Leur succès est une prouesse de force brute, mais l’architecture elle-même engendre des besoins énergétiques et de traitement intenables.
Aucun être humain ne relit un livre de 800 pages pour interpréter le dernier mot. Nous portons en nous une compréhension compressée et évolutive. Les Transformers natifs ne savent pas faire cela. Nous construisons un écosystème d’architecture d’IA évoluée. (Tout a commencé en essayant de créer un jeu vidéo révolutionnaire.)
Faire Progresser l’état de l’IA
Intelligence Narrative
Retrouver le fil...
La plateforme regroupe les récits en évolution grâce au raisonnement neurosymbolique afin de retracer les réseaux d’acteurs et de prédire les événements narratifs. Contrairement aux systèmes de reconnaissance de motifs, notre approche construit des chaînes causales à partir de graphes de connaissances spécifiques à un domaine, offrant ainsi des prévisions explicables des opérations d’influence et des trajectoires narratives.
Efficace par Conception
Architecture post-transformer...
En résumé (TL;DR) – Une architecture non fondée sur les transformers présente plusieurs avantages.
L’auto-attention quadratique : aïe. La complexité en O(n²) est une limite fondamentale des transformers, qui impose des barrières infranchissables pour les contextes longs. À cela s’ajoutent de nombreux autres problèmes :
Les architectures GPU modernes sont souvent limitées par la mémoire plutôt que par la puissance de calcul lors de l’inférence, en particulier pour les grands modèles, ce qui entraîne un goulet d’étranglement au niveau de la bande passante mémoire.
Le cache KV représente une surcharge mémoire importante, qui croît avec la longueur de séquence et la taille de lot, et dépasse souvent les paramètres du modèle eux-mêmes en consommation mémoire pour les longs contextes.
Le coût computationnel est uniforme, quel que soit le degré de complexité des tokens. Les modèles MoE sont apparus en partie pour traiter cette inefficacité via le calcul conditionnel, mais ils restent autoregressifs lors de l’inférence : on génère un token à la fois, et chaque génération nécessite un calcul d’attention complet sur tout le contexte. En pratique, cela revient à un « rustine » sur un composant d’une architecture fondamentalement défectueuse.
Les encodages positionnels sont une sorte de « bricolage » : une solution additive pour gérer la nature permutation-invariante de l’attention, plutôt qu’une caractéristique architecturale intrinsèque.
Nos recherches ont débuté avant la publication des travaux sur la technologie des transformers en 2017. Nous abordions déjà le défi de l’IA cognitive sous un angle différent. C’est une approche qui, selon nous, aura un impact significatif sur les coûts opérationnels et énergétiques, ainsi que sur les performances.
Détection de la Désinformation
Mettre au jour des opérations d’influence sophistiquées...
Les systèmes traditionnels de modération de contenu reposent sur un signalement réactif des publications individuelles, laissant les organisations vulnérables face à des campagnes coordonnées opérant sur plusieurs plateformes. Notre approche neurosymbolique offre une détection complète des opérations d’influence, capable de comprendre non seulement ce qui est dit, mais aussi comment des acteurs coordonnés collaborent pour façonner des récits.
Analyse avancée de la coordination des campagnes:
Cartographie des réseaux inter-plateformes: retracez les réseaux d’influence à travers les réseaux sociaux, forums et applications de messagerie en analysant les comportements, les corrélations temporelles et les trajectoires de propagation des contenus.
Signaux de coordination multi-vecteurs: identifiez les campagnes synchronisées de hashtags, le partage coordonné de liens et la diffusion de récits par des comptes en apparence sans lien.
Détection des médias synthétiques et des contenus générés par IA:
Identification des deepfakes et médias manipulés: détectez les images, vidéos et audios générés par IA grâce à des analyses médico-légales avancées (artefacts de compression, incohérences, signatures de génération).
Détection de textes écrits par IA: repérez les contenus générés par bots, les personas synthétiques et l’amplification assistée par IA via l’analyse des structures linguistiques et des empreintes stylométriques.
Attribution probabiliste et chaîne de preuves:
Scores d’attribution probabiliste: chaque opération d’influence détectée reçoit un score de confiance fondé sur des preuves comportementales, des indicateurs techniques et la force des schémas identifiés.
Raisonnement IA explicable: des journaux d’audit complets montrent précisément quels signaux ont déclenché les alertes, permettant aux analystes de valider les résultats et de présenter des preuves recevables en justice.
Intégration entreprise et partage de renseignement:
Compatibilité native STIX/TAXII: intégration fluide avec les plateformes existantes de cyber-renseignement, les flux personnalisés ou les bases de données internes/sur site.
Raisonnement IA explicable: journaux d’audit détaillés indiquant les signaux déclencheurs, pour des validations rigoureuses et des preuves prêtes à être produites devant un tribunal.
IA Agentique
Autonomous agents with human oversight...
Deploy AI agents that autonomously discover, investigate, and correlate influence operations across data sources while providing complete audit trails of their decision-making process. Unlike black-box AI systems, every agent action includes symbolic reasoning chains that security analysts or investigators can validate, override, or learn from.
Continuous multi-source threat hunting with full reasoning transparency. Agents show exactly why they flagged specific patterns, which knowledge graph paths triggered alerts, and how they weighted conflicting evidence.
Enables 24/7 threat detection. Analyst-level reasoning quality at machine speed, while maintaining human oversight and building institutional knowledge.
IA Éthique
Transparency and accountability built-in...
Every threat detection decision includes full symbolic reasoning traces showing exactly which knowledge graph paths, evidence weights, and logical inferences led to each conclusion.
Real-time explainability:
Analysts can drill down into any alert to see the complete chain of reasoning, challenge individual inference steps, and understand how the system weighted conflicting evidence sources.
This enables rapid government procurement approval and operational deployment in high-stakes environments where decision accountability is legally required.
Privacy and data protection:
Only collecting/processing data necessary for threat detection, with different access tiers based on customer authorization level and legal authority
Supporting authorized government and international law enforcement access to non-public data sources while maintaining strict audit trails and jurisdictional compliance
GDPR-compliant processing for commercial customers, with enhanced capabilities for qualified law enforcement and intelligence agencies operating under appropriate legal frameworks (court orders, national security authorities, international treaties)
Ensuring data processing location and retention policies align with customer legal authorities and cross-border data sharing agreements
Human-in-the-loop requirements:
Ensuring critical decisions always have human oversight
Ingestion de Données
Zero-trust gateway with data normalization...
Securely ingest and normalize intelligence from any source, such as social media APIs, dark web scrapers, classified government feeds, sensor networks or financial data. Data streams maintain strict security boundaries and data sovereignty.
Universal semantic normalization: Automatically converts disparate data formats (JSON, XML, STIX, custom feeds) into standardized knowledge graph entities when needed while preserving source attribution and classification levels.
Eliminate intelligence silos without compromising operational security: Analysts work with unified data views while maintaining compartmentalization and need-to-know access controls.
Secure deployment: Air-gapped processing nodes, sovereign cloud deployment, and region-locked data residency ensure compliance with national security requirements and international data protection laws.
