1
1

Nofy

New opportunities for you...

Technologie Multi-Agents de NOFY

NOFY est une intelligence artificielle hybride composée d'une multitude de plateformes indépendantes, intégrant chacune un noyau de 11 agents principaux, chacun spécialisé dans des tâches spécifiques et travaillant en collaboration pour traiter des ontologies et résoudre des problèmes complexes. Cette approche modulaire permet à chaque plateforme de fonctionner de manière autonome tout en offrant une diversité de services et d'expertises, gratuits ou payants.


SAT, le cœur de Nofy...

Il n'est pas immédiatement évident de voir la connexion entre le problàme de la satisfiabilité (SAT) et des domaines comme les réseaux de neurones ou l'IA symbolique, qui sont souvent perçus comme appartenant à des paradigmes différents de la logique formelle et de la satisfiabilité booléenne.

Cependant, tout problème en IA, peut être vu comme un problème SAT, en raison de la nature fondamentale de la satisfiabilité comme concept logique.

En effet, quelles que soient les méthodes d'apprentissage utilisées, supervisées ou non, les réseaux de neurones ne font que transformer des entrées en sorties en suivant des relations internes (via les poids et les biais). Ces relations, qu'elles soient explicitement définies (comme dans les systèmes experts) ou apprises (dans l'apprentissage par renforcement), sont fondamentalement des règles et une règle n'est rien d'autre qu'une combinaison de variables.

Ces variables proviennent de l'ontologie définie par la requête de l'usager. Certaines de ces variables devront être estimées par inférence bayésienne, tandis que celles dont les valeurs sont imprécises, exprimées sous forme de variables linguistiques, seront quantifiées par logique floue.

Opérationnellement, si nous avons n variables, il y a 2n combinaisons possibles de ces variables, ce qui est une caractéristique fondamentale du problàme SAT. Ces combinaisons correspondent à des clauses dans le cadre de SAT..

La quantité 2n représente une barriàre combinatoire infranchissable pour l'ensemble de nos concurrents, sans aucune exception.

 


Éléments de comparaison entre Nofy, système d'IA hybride, multi-agents, basé sur des ontologies et les autres systèmes d'IA.

Critères Nofy Fine Tuning, Transfer Learning, prompt engenering/a> Data-trainings
Nofy, système IA hybride, décentralisé, multi-agents, à base d'ontologie Modèles pré-entraînés sur de vastes ensembles de données (Fine tuning). Modèles entraînés à partir de zéro sur d'énormes ensembles de données, souvent non étiquetées, pour apprendre des représentations générales (Data-training).
Données Apprend avec moins de données, y compris des données symboliques, des connaissances d'experts et des données structurées/non structurées. Nécessite des ensembles de données de taille moyenne à grande, principalement des données numériques étiquetées. Nécessite d'énormes quantités de données, souvent non étiquetées, pour un apprentissage efficace.
Type de données Traite divers types de données : symboliques (ontologies, règles), numériques, textuelles, etc. Principalement des données numériques (images, sons, séries temporelles), mais peut traiter du texte. Principalement des données numériques et textuelles, mais peut inclure d'autres modalités.
Adaptabilité Très adaptable à de nouveaux contextes et tâches grâce à l'ontologie, au moteur de règles et au méta-moteur. Adapté à la tâche pour laquelle le modèle a été pré-entraîné, nécessite un fine-tuning pour de nouvelles tâches. Peut être adapté à de nouvelles tâches avec un réentraînement important et un réglage fin des hyperparamètres.
Complexité de mise en œuvre Plus complexe en raison de la conception de l'ontologie et des règles, mais potentiellement plus puissant et flexible. Plus simple et plus rapide à mettre en œuvre, mais moins flexible et dépendant du modèle pré-entraîné. Très complexe et coûteux en ressources (calcul, stockage, énergie).
Interprétabilité Très interprétable grâce à l'ontologie, aux règles explicites et à l'historisation des requêtes. Interprétabilité limitée, souvent considérée comme une "boîte noire", mais des techniques existent (visualisation, analyse de sensibilité). Très faible interprétabilité, les modèles apprennent des représentations complexes difficiles à comprendre.
Précision Potentiellement élevée grâce à la combinaison de différentes techniques et à la capacité de raisonnement symbolique. Peut être élevée sur la tâche spécifique, mais dépend de la qualité des données de fine-tuning et du modèle pré-entraîné. Peut être élevée avec suffisamment de données et un réglage fin des hyperparamètres, mais dépend de la qualité des données.
Exactitude élevée si l'ontologie et les règles sont bien définies et que les données sont de qualité. Dépend de la qualité des données de fine-tuning et de la pertinence du modèle pré-entraîné pour la tâche. Dépend de la qualité et de la quantité des données d'entraînement.
Robustesse Potentiellement très robuste grâce à la décentralisation, à la logique floue et à la capacité de raisonnement symbolique. Moins robuste aux perturbations et aux erreurs dans les données de fine-tuning. Moins robuste, peut être sensible au surapprentissage et aux biais dans les données d'entraînement.
Efficacité Peut être optimisée grâce à la décentralisation, à l'utilisation de techniques spécifiques (FFT) et à l'apprentissage incrémental. Peut être efficace si le modèle pré-entraîné est bien adapté à la tâche et que le fine-tuning est bien réalisé. Peut être très coûteux en temps et en ressources (calcul, énergie) pour l'entraînement initial.
Explicabilité Très explicable grâce à l'ontologie, aux règles et à l'historisation des requêtes. Moins explicable, mais des techniques d'analyse post-hoc existent. Très faible explicabilité, les modèles apprennent des représentations complexes difficiles à interpréter.
Transparence Très transparente grâce à la modularité, à la traçabilité des actions et à la représentation explicite des connaissances. Moins transparente, les mécanismes internes du modèle sont souvent opaques. Très faible transparence, les modèles sont considérés comme des "boîtes noires".
Généralisation Bonne généralisation grâce à l'ontologie et à la capacité de raisonnement symbolique. Généralisation limitée à la tâche pour laquelle le modèle a été entraîné et fine-tuné. Bonne généralisation si le modèle est bien conçu et entraîné sur des données diversifiées.
Apprentissage continu Apprend de différentes sources (données, règles, interactions) et s'améliore continuellement grâce à l'ajout de nouvelles connaissances dans l'ontologie. Apprentissage continu limité, nécessite souvent un fine-tuning supplémentaire avec de nouvelles données. Peut être mis en place avec des techniques spécifiques (apprentissage par renforcement, apprentissage incrémental).
Biais Les biais doivent être gérés avec attention dans la conception de l'ontologie et des règles, mais la transparence peut aider à les identifier et à les corriger. Peut amplifier les biais présents dans les données de fine-tuning et dans le modèle pré-entraîné. Peut amplifier les biais présents dans les données d'entraînement, ce qui peut avoir des conséquences négatives.
Confidentialité Améliorée grâce à la décentralisation, aux règles logiques (modale et déontique) pour le contrôle des données et à la représentation symbolique des connaissances. Dépend des mesures de sécurité mises en place pour le stockage et le traitement des données. Dépend des mesures de sécurité mises en place pour le stockage et le traitement des données, risque d'extraction d'informations sensibles.
énergie nécessaire Faible consommation d'énergie grâce à l'apprentissage avec moins de données et à l'optimisation du raisonnement symbolique. Consommation d'énergie modérée pour le fine-tuning, mais dépend de la taille du modèle et des données. Très forte consommation d'énergie pour l'entraînement initial et le fonctionnement, impact environnemental important.
Exemples d'applications Systèmes experts, aide à la décision médicale, raisonnement juridique, représentation de connaissances dans des domaines spécifiques, contrôle d'accès et de confidentialité des données. Reconnaissance d'images, traitement du langage naturel (traduction, résumé), détection d'anomalies. Reconnaissance d'images à grande échelle, traduction automatique, génération de texte, apprentissage de représentations générales.
Compromis hybrides Combinaison d'ontologies et de réseaux de neurones pour améliorer l'interprétabilité et la robustesse. Utilisation de réseaux de neurones pour extraire des connaissances à partir de données non structurées et les intégrer dans une ontologi Utilisation de techniques d'apprentissage symbolique pour améliorer l'explicabilité des modèles entraînés sur de grandes quantités de données.

les logiques dans Nofy


\(2^n = \binom{n}{0} + \binom{n}{1} + \binom{n}{2} + \cdots + \binom{n}{k} + \cdots + \binom{n}{n-1} + \binom{n}{n}\)