Thứ Hai, 30 tháng 8, 2021

Data stream clustering, Color mapping, Combinatorial optimization

Regroupement de flux de données :

En informatique, le clustering de flux de données est défini comme le regroupement de données qui arrivent en continu telles que des enregistrements téléphoniques, des données multimédias, des transactions financières, etc. Le clustering de flux de données est généralement étudié comme un algorithme de streaming et l'objectif est, étant donné une séquence de points, pour construire un bon clustering du flux, en utilisant une petite quantité de mémoire et de temps.

Mappage des couleurs :

Le mappage des couleurs (photographie) est une fonction qui mappe (transforme) les couleurs d'une image (source) aux couleurs d'une autre image (cible). Un mappage de couleurs peut être appelé algorithme qui aboutit à la fonction de mappage ou à l'algorithme qui transforme les couleurs de l'image. Le mappage des couleurs est aussi parfois appelé transfert de couleur ou, lorsqu'il s'agit d'images en niveaux de gris, fonction de transfert de luminosité (BTF) ; il peut également être appelé étalonnage de caméra photométrique ou étalonnage de caméra radiométrique .

Optimisation combinatoire :

L'optimisation combinatoire est un sous-domaine de l'optimisation mathématique lié à la recherche opérationnelle, à la théorie des algorithmes et à la théorie de la complexité computationnelle. Il a des applications importantes dans plusieurs domaines, notamment l'intelligence artificielle, l'apprentissage automatique, la théorie des enchères, le génie logiciel, les mathématiques appliquées et l'informatique théorique.

Fermeture transitive :

En mathématiques, la fermeture transitive d'une relation binaire R sur un ensemble X est la plus petite relation sur X contenant R et transitive. Pour les ensembles finis, "le plus petit" peut être pris dans son sens habituel, d'avoir le moins de paires liées ; pour les ensembles infinis, c'est l'unique surensemble transitif minimal de R .

Problème de satisfaction de contraintes :

Les problèmes de satisfaction de contraintes ( CSP ) sont des questions mathématiques définies comme un ensemble d'objets dont l'état doit satisfaire un certain nombre de contraintes ou de limitations. Les CSP représentent les entités d'un problème sous la forme d'un ensemble homogène de contraintes finies sur des variables, qui est résolu par des méthodes de satisfaction de contraintes. Les CSP font l'objet de recherches à la fois en intelligence artificielle et en recherche opérationnelle, car la régularité de leur formulation fournit une base commune pour analyser et résoudre les problèmes de nombreuses familles apparemment sans rapport. Les CSP présentent souvent une complexité élevée, nécessitant une combinaison d'heuristiques et de méthodes de recherche combinatoire pour être résolus dans un temps raisonnable. La programmation par contraintes (PC) est le domaine de recherche qui se concentre spécifiquement sur la résolution de ce type de problèmes. De plus, le problème de satisfiabilité booléenne (SAT), les théories de la satisfiabilité modulo (SMT), la programmation mixte en nombres entiers (MIP) et la programmation par ensemble de réponses (ASP) sont tous des domaines de recherche axés sur la résolution de formes particulières du problème de satisfaction de contraintes.

Problème de satisfaction de contraintes :

Les problèmes de satisfaction de contraintes ( CSP ) sont des questions mathématiques définies comme un ensemble d'objets dont l'état doit satisfaire un certain nombre de contraintes ou de limitations. Les CSP représentent les entités d'un problème sous la forme d'un ensemble homogène de contraintes finies sur des variables, qui est résolu par des méthodes de satisfaction de contraintes. Les CSP font l'objet de recherches à la fois en intelligence artificielle et en recherche opérationnelle, car la régularité de leur formulation fournit une base commune pour analyser et résoudre les problèmes de nombreuses familles apparemment sans rapport. Les CSP présentent souvent une complexité élevée, nécessitant une combinaison d'heuristiques et de méthodes de recherche combinatoire pour être résolus dans un temps raisonnable. La programmation par contraintes (PC) est le domaine de recherche qui se concentre spécifiquement sur la résolution de ce type de problèmes. De plus, le problème de satisfiabilité booléenne (SAT), les théories de la satisfiabilité modulo (SMT), la programmation mixte en nombres entiers (MIP) et la programmation par ensemble de réponses (ASP) sont tous des domaines de recherche axés sur la résolution de formes particulières du problème de satisfaction de contraintes.

Classification contextuelle des images :

La classification contextuelle d'images , un sujet de reconnaissance de formes en vision par ordinateur, est une approche de classification basée sur des informations contextuelles dans des images. « Contextuel » signifie que cette approche se concentre sur la relation des pixels voisins, également appelée voisinage. Le but de cette approche est de classer les images en utilisant les informations contextuelles.

Apprentissage du jeu de contraste :

L'apprentissage par ensemble de contrastes est une forme d'apprentissage de règles d'association qui cherche à identifier des différences significatives entre des groupes distincts en procédant à une rétro-ingénierie des prédicteurs clés qui identifient pour chaque groupe particulier. Par exemple, étant donné un ensemble d'attributs pour un groupe d'étudiants, un apprenant d'ensemble contrasté identifierait les caractéristiques contrastées entre les étudiants à la recherche d'un baccalauréat et ceux qui préparent un doctorat.

Apprentissage par renforcement:

L'apprentissage par renforcement ( RL ) est un domaine de l'apprentissage automatique qui s'intéresse à la façon dont les agents intelligents doivent entreprendre des actions dans un environnement afin de maximiser la notion de récompense cumulative. L'apprentissage par renforcement est l'un des trois paradigmes de base de l'apprentissage automatique, avec l'apprentissage supervisé et l'apprentissage non supervisé.

Regroupement de corrélation :

Le clustering est le problème de partitionnement des points de données en groupes en fonction de leur similitude. Le clustering par corrélation fournit une méthode pour regrouper un ensemble d'objets dans le nombre optimal de clusters sans spécifier ce nombre à l'avance.

Détection de cycle :

En informatique, la détection de cycle ou la recherche de cycle est le problème algorithmique consistant à trouver un cycle dans une séquence de valeurs de fonction itérées.

L'analyse des données:

L'analyse des données est un processus d'inspection, de nettoyage, de transformation et de modélisation des données dans le but de découvrir des informations utiles, d'éclairer les conclusions et de soutenir la prise de décision. L'analyse des données a de multiples facettes et approches, englobant diverses techniques sous divers noms, et est utilisée dans différents domaines commerciaux, scientifiques et sociaux. Dans le monde des affaires d'aujourd'hui, l'analyse des données joue un rôle dans la prise de décisions plus scientifiques et aide les entreprises à fonctionner plus efficacement.

Regroupement de flux de données :

En informatique, le clustering de flux de données est défini comme le regroupement de données qui arrivent en continu telles que des enregistrements téléphoniques, des données multimédias, des transactions financières, etc. Le clustering de flux de données est généralement étudié comme un algorithme de streaming et l'objectif est, étant donné une séquence de points, pour construire un bon clustering du flux, en utilisant une petite quantité de mémoire et de temps.

Dématriçage :

Un algorithme de dématriçage est un processus d'image numérique utilisé pour reconstruire une image en couleur à partir des échantillons de couleur incomplets émis par un capteur d'image recouvert d'un réseau de filtres de couleur (CFA). Elle est également connue sous le nom d' interpolation CFA ou de reconstruction de couleur .

Insuffisance cardiaque:

L' insuffisance cardiaque (HF), également connu comme l' insuffisance cardiaque congestive (CHF) et (congestive) de l' insuffisance cardiaque (CCF), est un ensemble de manifestations provoquées par la défaillance de la fonction du coeur en tant que pompe supportant le flux sanguin à travers le corps; ses signes et symptômes résultent d'une anomalie structurelle et/ou fonctionnelle du cœur, qui perturbe son remplissage en sang ou son éjection à chaque battement cardiaque. Les signes et symptômes de l'insuffisance cardiaque comprennent généralement un essoufflement, une fatigue excessive et un gonflement des jambes. L'essoufflement est généralement pire avec l'exercice ou en position couchée, et peut réveiller la personne la nuit. Une capacité limitée à faire de l'exercice est également une caractéristique commune. Les douleurs thoraciques, y compris l'angine de poitrine, ne surviennent généralement pas en raison d'une insuffisance cardiaque.

Optimisation des contraintes distribuées :

L'optimisation des contraintes distribuées est l'analogue distribué de l'optimisation des contraintes. Un DCOP est un problème dans lequel un groupe d'agents doit choisir de manière distribuée des valeurs pour un ensemble de variables de telle sorte que le coût d'un ensemble de contraintes sur les variables soit minimisé.

Regroupement de documents :

Le clustering de documents est l'application de l'analyse de cluster à des documents textuels. Il a des applications dans l'organisation automatique de documents, l'extraction de sujets et la récupération ou le filtrage rapide d'informations.

Analyse de la mise en page du document :

Dans la vision par ordinateur ou le traitement du langage naturel, l' analyse de la mise en page du document est le processus d'identification et de catégorisation des régions d'intérêt dans l'image numérisée d'un document texte. Un système de lecture nécessite la segmentation des zones de texte des zones non textuelles et la disposition dans leur ordre de lecture correct. La détection et l'étiquetage des différentes zones sous forme de corps de texte, d'illustrations, de symboles mathématiques et de tableaux intégrés dans un document sont appelés analyse de mise en page géométrique . Mais les zones de texte jouent des rôles logiques différents à l'intérieur du document et ce type d'étiquetage sémantique est la portée de l' analyse de la mise en page logique .

Coloration des bords :

En théorie des graphes, une coloration des arêtes d'un graphe est une affectation de « couleurs » aux arêtes du graphe de sorte qu'aucune arête incidente n'ait la même couleur. Par exemple, la figure de droite montre une coloration des bords d'un graphique par les couleurs rouge, bleu et vert. Les colorations d'arêtes sont l'un des différents types de coloration de graphe. Le problème de la coloration des bords demande s'il est possible de colorer les bords d'un graphe donné en utilisant au plus k couleurs différentes, pour une valeur donnée de k , ou avec le moins de couleurs possible. Le nombre minimum requis de couleurs pour les bords d'un graphique donné est appelé l' indice chromatique du graphique. Par exemple, les bords du graphique de l'illustration peuvent être colorés par trois couleurs mais ne peuvent pas être colorés par deux couleurs, de sorte que le graphique présenté a un indice chromatique de trois.

Factorisation en nombres entiers :

En théorie des nombres, la factorisation d'entiers est la décomposition d'un nombre composé en un produit d'entiers plus petits. Si ces facteurs sont encore restreints aux nombres premiers, le processus est appelé factorisation en nombres premiers .

Polynôme irréductible :

En mathématiques, un polynôme irréductible est, grosso modo, un polynôme qui ne peut pas être factorisé dans le produit de deux polynômes non constants. La propriété d'irréductibilité dépend de la nature des coefficients acceptés pour les facteurs possibles, c'est-à-dire du champ ou de l'anneau auquel sont supposés appartenir les coefficients du polynôme et ses facteurs possibles. Par exemple, le polynôme x 2 − 2 est un polynôme à coefficients entiers, mais, comme tout entier est aussi un nombre réel, c'est aussi un polynôme à coefficients réels. Il est irréductible s'il est considéré comme un polynôme à coefficients entiers, mais il se factorise comme s'il est considéré comme un polynôme à coefficients réels. On dit que le polynôme x 2 − 2 est irréductible sur les entiers mais pas sur les réels.

Arbre couvrant minimal euclidien :

L' arbre couvrant minimum euclidien ou EMST est un arbre couvrant minimum d'un ensemble de points du plan ou de l'espace euclidien de dimension supérieure. Il relie les points par un système de segments de ligne, de sorte que deux points peuvent se rejoindre le long d'un chemin à travers les segments de ligne, et il sélectionne des segments de ligne qui minimisent la somme des distances euclidiennes entre les paires de points directement connectés.

Arbre couvrant minimum capacitif :

L'arbre couvrant minimum capacité est un arbre couvrant à coût minimal d'un graphe qui a un nœud racine désigné et satisfait la contrainte de capacité . La contrainte de capacité garantit que tous les sous-arbres incidents sur le nœud racine n'ont pas plus de nœuds. Si les nœuds de l'arbre ont des poids, alors la contrainte de capacité peut être interprétée comme suit : la somme des poids dans n'importe quel sous-arbre ne doit pas être supérieure à . Les arêtes reliant les sous-graphes au nœud racine sont appelées portes . Trouver la solution optimale est NP-difficile.

L'arbre couvrant minimum capacité est un arbre couvrant à coût minimal d'un graphe qui a un nœud racine désigné
Arbre couvrant minimal :

Un arbre couvrant minimum ( MST ) ou un arbre couvrant de poids minimum est un sous-ensemble des arêtes d'un graphe non orienté pondéré par les arêtes connecté qui relie tous les sommets ensemble, sans aucun cycle et avec le poids d'arête total minimum possible. C'est-à-dire qu'il s'agit d'un arbre couvrant dont la somme des poids d'arête est aussi petite que possible. Plus généralement, tout graphe non orienté pondéré par les bords a une forêt couvrante minimale , qui est une union des arbres couvrants minimum pour ses composants connectés.

Empreinte digitale:

Une empreinte digitale est une empreinte laissée par les arêtes de friction d'un doigt humain. La récupération d'empreintes digitales partielles sur une scène de crime est une méthode importante de la science médico-légale. L'humidité et la graisse sur un doigt entraînent des traces de doigts sur des surfaces telles que le verre ou le métal. Des impressions délibérées d'empreintes digitales entières peuvent être obtenues par de l'encre ou d'autres substances transférées des pics des crêtes de friction sur la peau à une surface lisse telle que le papier. Les enregistrements d'empreintes digitales contiennent normalement des empreintes du tampon sur la dernière articulation des doigts et des pouces, bien que les cartes d'empreintes digitales enregistrent également généralement des parties des zones articulaires inférieures des doigts.

Analyse formelle du concept :

L'analyse formelle de concepts ( AFC ) est une méthode fondée sur des principes pour dériver une hiérarchie de concepts ou une ontologie formelle à partir d'une collection d'objets et de leurs propriétés. Chaque concept de la hiérarchie représente les objets partageant un ensemble de propriétés ; et chaque sous-concept dans la hiérarchie représente un sous-ensemble des objets dans les concepts au-dessus de lui. Le terme a été introduit par Rudolf Wille en 1981 et s'appuie sur la théorie mathématique des réseaux et des ensembles ordonnés développée par Garrett Birkhoff et d'autres dans les années 1930.

Reconnaissance gestuelle:

La reconnaissance des gestes est un sujet en informatique et en technologie du langage dans le but d'interpréter les gestes humains via des algorithmes mathématiques. C'est une sous-discipline de la vision par ordinateur. Les gestes peuvent provenir de tout mouvement ou état corporel, mais proviennent généralement du visage ou de la main. Les priorités actuelles dans le domaine incluent la reconnaissance des émotions à partir de la reconnaissance des gestes du visage et de la main. Les utilisateurs peuvent utiliser des gestes simples pour contrôler ou interagir avec les appareils sans les toucher physiquement. De nombreuses approches ont été faites en utilisant des caméras et des algorithmes de vision par ordinateur pour interpréter la langue des signes. Cependant, l'identification et la reconnaissance de la posture, de la démarche, de la proxémie et des comportements humains font également l'objet de techniques de reconnaissance des gestes. La reconnaissance des gestes peut être considérée comme un moyen pour les ordinateurs de commencer à comprendre le langage corporel humain, créant ainsi un pont plus riche entre les machines. et les humains que les interfaces utilisateur textuelles primitives ou même les interfaces graphiques, qui limitent toujours la majorité des entrées au clavier et à la souris et interagissent naturellement sans aucun dispositif mécanique.

Illumination globale:

L'illumination globale ( GI ), ou illumination indirecte , est un groupe d'algorithmes utilisés en infographie 3D qui visent à ajouter un éclairage plus réaliste aux scènes 3D. De tels algorithmes prennent en compte non seulement la lumière qui provient directement d'une source lumineuse, mais également les cas ultérieurs dans lesquels les rayons lumineux de la même source sont réfléchis par d'autres surfaces de la scène, qu'elles soient réfléchissantes ou non.

Coloration du graphique :

En théorie des graphes, la coloration de graphes est un cas particulier d'étiquetage de graphes ; c'est une affectation d'étiquettes traditionnellement appelées "couleurs" à des éléments d'un graphe soumis à certaines contraintes. Dans sa forme la plus simple, il s'agit d'une façon de colorer les sommets d'un graphe de telle sorte que deux sommets adjacents ne soient pas de la même couleur ; c'est ce qu'on appelle une coloration de sommet . De même, une coloration d'arête attribue une couleur à chaque arête de sorte qu'aucune arête adjacente ne soit de la même couleur, et une coloration de face d'un graphe planaire attribue une couleur à chaque face ou région de sorte qu'aucune des deux faces partageant une frontière n'ait la même couleur. même couleur.

Compression d'images :

La compression d'image est un type de compression de données appliqué aux images numériques, pour réduire leur coût de stockage ou de transmission. Les algorithmes peuvent tirer parti de la perception visuelle et des propriétés statistiques des données d'image pour fournir des résultats supérieurs par rapport aux méthodes génériques de compression de données qui sont utilisées pour d'autres données numériques.

Liste des algorithmes :

Ce qui suit est une liste d'algorithmes avec des descriptions d'une ligne pour chacun.

Rectification d'image :

La rectification d'image est un processus de transformation utilisé pour projeter des images sur un plan d'image commun. Ce processus a plusieurs degrés de liberté et il existe de nombreuses stratégies pour transformer les images dans le plan commun.

  • Il est utilisé en vision stéréo par ordinateur pour simplifier le problème de trouver des points de correspondance entre les images.
  • Il est utilisé dans les systèmes d'information géographique pour fusionner des images prises à partir de plusieurs perspectives dans un système de coordonnées cartographiques commun.
Mise à l'échelle de l'image :

En infographie et en imagerie numérique, la mise à l' échelle de l' image fait référence au redimensionnement d'une image numérique. Dans la technologie vidéo, l'agrandissement du matériel numérique est connu sous le nom de mise à l'échelle ou d'amélioration de la résolution.

Assemblage d'images :

L' assemblage d'images ou l'assemblage de photos est le processus consistant à combiner plusieurs images photographiques avec des champs de vision qui se chevauchent pour produire un panorama segmenté ou une image haute résolution. Généralement exécutées à l'aide de logiciels informatiques, la plupart des approches d'assemblage d'images nécessitent des chevauchements presque exacts entre les images et des expositions identiques pour produire des résultats homogènes, bien que certains algorithmes d'assemblage bénéficient en réalité d'images exposées différemment en effectuant une imagerie à plage dynamique élevée dans les régions de chevauchement. . Certains appareils photo numériques peuvent assembler leurs photos en interne.

Programmation en nombres entiers :

Un problème de programmation en nombres entiers est un programme d' optimisation mathématique ou de faisabilité dans lequel certaines ou toutes les variables sont limitées à des nombres entiers. Dans de nombreux contextes, le terme fait référence à la programmation linéaire en nombres entiers (ILP), dans laquelle la fonction objectif et les contraintes sont linéaires.

Régression isotonique :

En statistique, la régression isotonique ou la régression monotone est la technique consistant à ajuster une ligne de forme libre à une séquence d'observations de telle sorte que la ligne ajustée ne diminue pas partout et se trouve aussi près que possible des observations.

Analyse de l'arborescence des articles :

L'analyse par arborescence d'éléments ( ITA ) est une méthode d'analyse de données qui permet de construire une structure hiérarchique sur les éléments d'un questionnaire ou d'un test à partir des modèles de réponse observés.
Supposons que nous ayons un questionnaire à m items et que les sujets puissent répondre positivement (1) ou négativement (0) à chacun de ces items, c'est-à-dire que les items sont dichotomiques. Si n sujets répondent aux éléments, cela donne une matrice de données binaire D avec m colonnes et n lignes. Des exemples typiques de ce format de données sont des éléments de test qui peuvent être résolus (1) ou échoués (0) par les sujets. D'autres exemples typiques sont les questionnaires où les items sont des énoncés avec lesquels les sujets peuvent être d'accord (1) ou en désaccord (0).
Selon le contenu des items, il est possible que la réponse d'un sujet à un item j détermine ses réponses à d'autres items. Il est par exemple possible que chaque sujet qui accepte l'item j accepte aussi l'item i . Dans ce cas, nous disons que l'élément j implique l'élément i . L'objectif d'une ITA est de découvrir ces implications déterministes à partir de l'ensemble de données D .

Regroupement des K-moyennes :

Le clustering k -means est une méthode de quantification vectorielle, issue du traitement du signal, qui vise à partitionner n observations en k clusters dans lesquels chaque observation appartient au cluster de moyenne la plus proche, servant de prototype du cluster. Il en résulte un partitionnement de l'espace de données en cellules de Voronoï. k -means clustering minimise les variances intra-clusters, mais pas les distances euclidiennes régulières, ce qui serait le problème de Weber le plus difficile : la moyenne optimise les erreurs quadratiques, alors que seule la médiane géométrique minimise les distances euclidiennes. Par exemple, de meilleures solutions euclidiennes peuvent être trouvées en utilisant les k-médianes et les k-médoïdes.

Programmation linéaire:

La programmation linéaire est une méthode permettant d'obtenir les meilleurs résultats dans un modèle mathématique dont les exigences sont représentées par des relations linéaires. La programmation linéaire est un cas particulier de la programmation mathématique.

Compression des données :

Dans le traitement du signal, la compression des données , le codage de la source ou la réduction du débit binaire est le processus de codage des informations en utilisant moins de bits que la représentation d'origine. Toute compression particulière est soit avec perte, soit sans perte. La compression sans perte réduit les bits en identifiant et en éliminant la redondance statistique. Aucune information n'est perdue dans la compression sans perte. La compression avec perte réduit les bits en supprimant les informations inutiles ou moins importantes. En règle générale, un appareil qui effectue la compression des données est appelé encodeur et celui qui effectue l'inversion du processus (décompression) en tant que décodeur.

Achèvement de la matrice :

L'achèvement de la matrice est la tâche de remplir les entrées manquantes d'une matrice partiellement observée. Un large éventail d'ensembles de données sont naturellement organisés sous forme de matrice. Un exemple est la matrice de classement des films, telle qu'elle apparaît dans le problème de Netflix : étant donné une matrice de classement dans laquelle chaque entrée représente la note du film par le client , si client a regardé un film et est autrement manquant, nous aimerions prédire les entrées restantes afin de faire de bonnes recommandations aux clients sur ce qu'il faut regarder ensuite. Un autre exemple est la matrice terme-document : les fréquences des mots utilisés dans une collection de documents peuvent être représentées sous forme de matrice, où chaque entrée correspond au nombre de fois où le terme associé apparaît dans le document indiqué.

Matrice inversible :

En algèbre linéaire, une matrice carrée n par n A est dite inversible , s'il existe une matrice carrée n par n B telle que

En algèbre linéaire, une matrice carrée n par n A est dite inversible , s'il existe une matrice carrée n par n B telle que

Algorithme de multiplication matricielle :

Parce que la multiplication matricielle est une opération si centrale dans de nombreux algorithmes numériques, beaucoup de travail a été investi pour rendre les algorithmes de multiplication matricielle efficaces. Les applications de la multiplication matricielle dans les problèmes informatiques se trouvent dans de nombreux domaines, notamment le calcul scientifique et la reconnaissance de formes, ainsi que dans des problèmes apparemment sans rapport tels que le comptage des chemins à travers un graphique. De nombreux algorithmes différents ont été conçus pour multiplier des matrices sur différents types de matériel, y compris des systèmes parallèles et distribués, où le travail de calcul est réparti sur plusieurs processeurs.

Estimation de mouvement :

L'estimation de mouvement est le processus de détermination des vecteurs de mouvement qui décrivent la transformation d'une image 2D à une autre ; généralement à partir d'images adjacentes dans une séquence vidéo. C'est un problème mal posé car le mouvement est en trois dimensions mais les images sont une projection de la scène 3D sur un plan 2D. Les vecteurs de mouvement peuvent concerner l'ensemble de l'image ou des parties spécifiques, telles que des blocs rectangulaires, des patchs de forme arbitraire ou même par pixel. Les vecteurs de mouvement peuvent être représentés par un modèle de translation ou de nombreux autres modèles qui peuvent se rapprocher du mouvement d'une vraie caméra vidéo, tels que la rotation et la translation dans les trois dimensions et le zoom.

Planification de mouvement :

La planification de mouvement , également la planification de chemin, est un problème de calcul pour trouver une séquence de configurations valides qui déplace l'objet de la source à la destination. Le terme est utilisé dans la géométrie computationnelle, l'animation par ordinateur, la robotique et les jeux informatiques.

Apprentissage sous-espace multilinéaire :

L'apprentissage sous-espace multilinéaire est une approche de la réduction de dimensionnalité. La réduction de dimensionnalité peut être effectuée sur un tenseur de données dont les observations ont été vectorisées et organisées en un tenseur de données, ou dont les observations sont des matrices concaténées dans un tenseur de données. Voici quelques exemples de tenseurs de données dont les observations sont vectorisées ou dont les observations sont des matrices concaténées en images de tenseurs de données (2D/3D), séquences vidéo (3D/4D) et cubes hyperspectraux (3D/4D).

Apprentissage à plusieurs instances :

En apprentissage automatique, l'apprentissage à plusieurs instances (MIL) est un type d'apprentissage supervisé. Au lieu de recevoir un ensemble d'instances étiquetées individuellement, l'apprenant reçoit un ensemble de sacs étiquetés, chacun contenant de nombreuses instances. Dans le cas simple de la classification binaire à instances multiples, un sac peut être étiqueté négatif si toutes les instances qu'il contient sont négatives. D'un autre côté, un sac est étiqueté positif s'il contient au moins une instance qui est positive. À partir d'une collection de sacs étiquetés, l'apprenant essaie soit (i) d'induire un concept qui étiquetera correctement les instances individuelles, soit (ii) d'apprendre à étiqueter des sacs sans induire le concept.

Apprentissage de plusieurs noyaux :

L'apprentissage à noyau multiple fait référence à un ensemble de méthodes d'apprentissage automatique qui utilisent un ensemble prédéfini de noyaux et apprennent une combinaison linéaire ou non linéaire optimale de noyaux dans le cadre de l'algorithme. Les raisons d'utiliser l'apprentissage à noyaux multiples incluent a) la possibilité de sélectionner un noyau et des paramètres optimaux à partir d'un plus grand ensemble de noyaux, ce qui réduit les biais dus à la sélection du noyau tout en permettant des méthodes d'apprentissage automatique plus automatisées, et b) la combinaison de données provenant de différentes sources qui ont différentes notions de similitude et nécessitent donc des noyaux différents. Au lieu de créer un nouveau noyau, plusieurs algorithmes de noyau peuvent être utilisés pour combiner des noyaux déjà établis pour chaque source de données individuelle.

Factorisation matricielle non négative :

La factorisation matricielle non négative , également l' approximation matricielle non négative est un groupe d'algorithmes en analyse multivariée et en algèbre linéaire où une matrice V est factorisée en (généralement) deux matrices W et H , avec la propriété que les trois matrices n'ont pas d'éléments négatifs . Cette non-négativité rend les matrices résultantes plus faciles à inspecter. Aussi, dans des applications telles que le traitement de spectrogrammes audio ou l'activité musculaire, la non-négativité est inhérente aux données considérées. Comme le problème n'est pas exactement résolvable en général, il est couramment approximé numériquement.

Système d'équations polynomiales :

Un système d'équations polynomiales est un ensemble d'équations simultanées f 1 = 0, ..., f h = 0 où les f i sont des polynômes à plusieurs variables, disons x 1 , ..., x n , sur un corps k .

Optimisation mathématique :

L'optimisation mathématique ou la programmation mathématique est la sélection d'un meilleur élément, en ce qui concerne un critère, à partir d'un ensemble d'alternatives disponibles. Des problèmes d'optimisation se posent dans toutes les disciplines quantitatives, de l'informatique et de l'ingénierie à la recherche opérationnelle et à l'économie, et le développement de méthodes de résolution intéresse les mathématiques depuis des siècles.

La reconnaissance de formes:

La reconnaissance de formes est la reconnaissance automatisée de formes et de régularités dans les données. Il a des applications dans l'analyse de données statistiques, le traitement du signal, l'analyse d'images, la recherche d'informations, la bioinformatique, la compression de données, l'infographie et l'apprentissage automatique. La reconnaissance des formes a ses origines dans les statistiques et l'ingénierie ; certaines approches modernes de la reconnaissance de formes incluent l'utilisation de l'apprentissage automatique, en raison de la disponibilité accrue des mégadonnées et d'une nouvelle abondance de puissance de traitement. Cependant, ces activités peuvent être considérées comme les deux facettes d'un même domaine d'application et, ensemble, elles ont connu un développement substantiel au cours des dernières décennies. Une définition moderne de la reconnaissance de formes est :

Le domaine de la reconnaissance de formes s'intéresse à la découverte automatique de régularités dans les données grâce à l'utilisation d'algorithmes informatiques et à l'utilisation de ces régularités pour prendre des mesures telles que la classification des données en différentes catégories.

Planification et ordonnancement automatisés :

La planification et l'ordonnancement automatisés , parfois appelés simplement planification de l'IA , sont une branche de l'intelligence artificielle qui concerne la réalisation de stratégies ou de séquences d'actions, généralement pour l'exécution par des agents intelligents, des robots autonomes et des véhicules sans pilote. Contrairement aux problèmes classiques de contrôle et de classification, les solutions sont complexes et doivent être découvertes et optimisées dans un espace multidimensionnel. La planification est également liée à la théorie de la décision.

Décomposition polynomiale :

En mathématiques, une décomposition polynomiale exprime un polynôme f comme la composition fonctionnelle des polynômes g et h , où g et h ont un degré supérieur à 1 ; c'est une décomposition fonctionnelle algébrique. Les algorithmes sont connus pour décomposer des polynômes univariés en temps polynomial.

Cryptographie post-quantique :

La cryptographie post-quantique fait référence à des algorithmes cryptographiques censés être sécurisés contre une attaque cryptanalytique par un ordinateur quantique. À partir de 2021, ce n'est pas vrai pour les algorithmes à clé publique les plus populaires, qui peuvent être efficacement brisés par un ordinateur quantique suffisamment puissant. Le problème avec les algorithmes actuellement populaires est que leur sécurité repose sur l'un des trois problèmes mathématiques difficiles : le problème de factorisation en nombres entiers, le problème du logarithme discret ou le problème du logarithme discret à courbe elliptique. Tous ces problèmes peuvent être facilement résolus sur un ordinateur quantique suffisamment puissant exécutant l'algorithme de Shor. Même si les ordinateurs quantiques expérimentaux actuels, connus du public, manquent de puissance de traitement pour briser tout algorithme cryptographique réel, de nombreux cryptographes conçoivent de nouveaux algorithmes pour se préparer à une époque où l'informatique quantique devient une menace. Ce travail a attiré une plus grande attention des universitaires et de l'industrie à travers la série de conférences PQCrypto depuis 2006 et plus récemment par plusieurs ateliers sur la cryptographie sûre quantique organisés par l'Institut européen des normes de télécommunications (ETSI) et l'Institute for Quantum Computing.

Conception de protéines :

La conception de protéines est la conception rationnelle de nouvelles molécules de protéines pour concevoir une activité, un comportement ou un objectif nouveaux et pour faire progresser la compréhension de base de la fonction des protéines. Les protéines peuvent être conçues à partir de zéro ou en créant des variantes calculées d'une structure protéique connue et de sa séquence. Les approches de conception rationnelle des protéines font des prédictions de séquences de protéines qui se replieront sur des structures spécifiques. Ces séquences prédites peuvent ensuite être validées expérimentalement par des méthodes telles que la synthèse de peptides, la mutagenèse dirigée ou la synthèse de gènes artificiels.

Élimination du quantificateur :

L'élimination des quantificateurs est un concept de simplification utilisé en logique mathématique, en théorie des modèles et en informatique théorique. De manière informelle, une déclaration chiffrée " tel que " peut être considéré comme une question "Quand y a-t-il un tel que ?", et la déclaration sans quantificateurs peut être considérée comme la réponse à cette question.

Traçage de rayons (graphiques) :

En infographie 3D, le lancer de rayons est une technique de modélisation du transport de la lumière à utiliser dans une grande variété d'algorithmes de rendu pour générer des images numériques.

Algorithmes de récupération et d'isolement exploitant la sémantique :

En informatique, Algorithms for Recovery and Isolation Exploiting Semantics , ou ARIES est un algorithme de récupération conçu pour fonctionner avec une approche de base de données sans force et vol ; il est utilisé par IBM DB2, Microsoft SQL Server et de nombreux autres systèmes de bases de données. IBM Fellow Dr. C. Mohan est le principal inventeur de la famille d'algorithmes ARIES.

Affectation des ressources :

En économie, l'allocation des ressources est l'affectation des ressources disponibles à diverses utilisations. Dans le contexte d'une économie entière, les ressources peuvent être allouées par divers moyens, tels que les marchés ou la planification.

Programmation semi-définie :

La programmation semi-définie ( SDP ) est un sous-domaine de l'optimisation convexe qui concerne l'optimisation d'une fonction objectif linéaire sur l'intersection du cône de matrices semi-définies positives avec un espace affine, c'est-à-dire un spectre.

Extraction de motifs séquentiels :

L'exploration de modèles séquentiels est un sujet d'exploration de données qui consiste à trouver des modèles statistiquement pertinents entre des exemples de données où les valeurs sont livrées dans une séquence. Il est généralement présumé que les valeurs sont discrètes, et donc l'exploration de séries chronologiques est étroitement liée, mais généralement considérée comme une activité différente. L'exploration de motifs séquentiels est un cas particulier d'exploration de données structurées.

Échantillon aléatoire simple :

En statistique, un échantillon aléatoire simple est un sous-ensemble d'individus choisis dans un ensemble plus large dans lequel un sous-ensemble d'individus est choisi au hasard, tous avec la même probabilité. Dans srs, chaque sous-ensemble de k individus a la même probabilité d'être choisi pour l'échantillon que tout autre sous-ensemble de k individus. Un échantillon aléatoire simple est une technique d'échantillonnage non biaisée. L'échantillonnage aléatoire simple est un type d'échantillonnage de base et peut être une composante d'autres méthodes d'échantillonnage plus complexes.

Localisation et cartographie simultanées :

La localisation et la cartographie simultanées ( SLAM ) est le problème informatique consistant à construire ou à mettre à jour une carte d'un environnement inconnu tout en gardant simultanément une trace de l'emplacement d'un agent à l'intérieur de celui-ci. Bien que cela semble initialement être un problème de poule et d'œuf, il existe plusieurs algorithmes connus pour le résoudre, au moins approximativement, en un temps raisonnable pour certains environnements. Les méthodes de résolution approximatives populaires incluent le filtre de particules, le filtre de Kalman étendu, l'intersection de covariance et GraphSLAM. Les algorithmes SLAM sont basés sur des concepts de géométrie computationnelle et de vision par ordinateur, et sont utilisés dans la navigation robotique, la cartographie robotique et l'odométrie pour la réalité virtuelle ou la réalité augmentée.

Lissage :

En statistiques et en traitement d'images, lisser un ensemble de données consiste à créer une fonction d'approximation qui tente de capturer des modèles importants dans les données, tout en laissant de côté le bruit ou d'autres structures à petite échelle/phénomènes rapides. Lors du lissage, les points de données d'un signal sont modifiés de sorte que les points individuels supérieurs aux points adjacents sont réduits et les points inférieurs aux points adjacents sont augmentés, ce qui conduit à un signal plus lisse. Le lissage peut être utilisé de deux manières importantes qui peuvent aider à l'analyse des données (1) en étant capable d'extraire plus d'informations des données tant que l'hypothèse de lissage est raisonnable et (2) en étant capable de fournir des analyses qui sont à la fois flexibles et robuste. De nombreux algorithmes différents sont utilisés pour le lissage.

Processus de décision de Markov :

En mathématiques, un processus de décision de Markov ( MDP ) est un processus de contrôle stochastique à temps discret. Il fournit un cadre mathématique pour modéliser la prise de décision dans des situations où les résultats sont en partie aléatoires et en partie sous le contrôle d'un décideur. Les MDP sont utiles pour étudier les problèmes d'optimisation résolus via la programmation dynamique. Les MDP étaient connus au moins dès les années 1950 ; un noyau de recherche sur les processus décisionnels de Markov a résulté du livre de Ronald Howard de 1960, Dynamic Programming and Markov Processes . Ils sont utilisés dans de nombreuses disciplines, notamment la robotique, le contrôle automatique, l'économie et la fabrication. Le nom des MDP vient du mathématicien russe Andrey Markov car ils sont une extension des chaînes de Markov.

Rubik's Cube:

Le Rubik's Cube est un puzzle combiné en 3D inventé en 1974 par le sculpteur et professeur d'architecture hongrois Ernő Rubik. Initialement appelé le Magic Cube , le puzzle a été autorisé par Rubik à être vendu par Ideal Toy Corp. en 1980 via l'homme d'affaires Tibor Laczi et le fondateur de Seven Towns, Tom Kremer. Rubik's Cube a remporté le prix spécial du jeu allemand de l'année 1980 pour le meilleur puzzle. En janvier 2009, 350 millions de cubes avaient été vendus dans le monde, ce qui en fait le jeu de puzzle et le jouet le plus vendu au monde.

Problème de satisfiabilité booléenne :

En logique et en informatique, le problème de satisfiabilité booléenne est le problème de déterminer s'il existe une interprétation qui satisfait une formule booléenne donnée. En d'autres termes, il demande si les variables d'une formule booléenne donnée peuvent être systématiquement remplacées par les valeurs VRAI ou FAUX de manière à ce que la formule soit évaluée à VRAI. Si tel est le cas, la formule est dite satisfiable . D'un autre côté, si aucune affectation de ce type n'existe, la fonction exprimée par la formule est FAUX pour toutes les affectations de variables possibles et la formule est insatisfiable . Par exemple, la formule " a AND NOT b " est satisfiable car on peut trouver les valeurs a = VRAI et b = FAUX, ce qui fait = VRAI. En revanche, " a AND NOT a " est insatisfaisant.

Optimisation contrainte :

En optimisation mathématique, l'optimisation contrainte est le processus d'optimisation d'une fonction objectif par rapport à certaines variables en présence de contraintes sur ces variables. La fonction objectif est soit une fonction de coût ou une fonction d'énergie, qui doit être minimisée, soit une fonction de récompense ou une fonction d'utilité, qui doit être maximisée. Les contraintes peuvent être soit des contraintes dures , qui définissent des conditions pour les variables qui doivent être satisfaites, soit des contraintes souples , qui ont des valeurs variables qui sont pénalisées dans la fonction objectif si, et en fonction de la mesure dans laquelle, les conditions sur les variables ne sont pas satisfaits.

Problème de satisfaction de contraintes :

Les problèmes de satisfaction de contraintes ( CSP ) sont des questions mathématiques définies comme un ensemble d'objets dont l'état doit satisfaire un certain nombre de contraintes ou de limitations. Les CSP représentent les entités d'un problème sous la forme d'un ensemble homogène de contraintes finies sur des variables, qui est résolu par des méthodes de satisfaction de contraintes. Les CSP font l'objet de recherches à la fois en intelligence artificielle et en recherche opérationnelle, car la régularité de leur formulation fournit une base commune pour analyser et résoudre les problèmes de nombreuses familles apparemment sans rapport. Les CSP présentent souvent une complexité élevée, nécessitant une combinaison d'heuristiques et de méthodes de recherche combinatoire pour être résolus dans un temps raisonnable. La programmation par contraintes (PC) est le domaine de recherche qui se concentre spécifiquement sur la résolution de ce type de problèmes. De plus, le problème de satisfiabilité booléenne (SAT), les théories de la satisfiabilité modulo (SMT), la programmation mixte en nombres entiers (MIP) et la programmation par ensemble de réponses (ASP) sont tous des domaines de recherche axés sur la résolution de formes particulières du problème de satisfaction de contraintes.

Liste des algorithmes :

Ce qui suit est une liste d'algorithmes avec des descriptions d'une ligne pour chacun.

Résolution d'équations :

En mathématiques, résoudre une équation, c'est trouver ses solutions , qui sont les valeurs qui remplissent la condition posée par l'équation, consistant généralement en deux expressions liées par un signe égal. Lors de la recherche d'une solution, une ou plusieurs variables sont désignées comme inconnues . Une solution est une affectation de valeurs aux variables inconnues qui rend l'égalité dans l'équation vraie. En d'autres termes, une solution est une valeur ou un ensemble de valeurs telles que, lorsqu'elles sont substituées aux inconnues, l'équation devient une égalité. Une solution d'une équation est souvent appelée racine de l'équation, en particulier mais pas seulement pour les équations polynomiales . L'ensemble de toutes les solutions d'une équation est son ensemble de solutions.

Problème de sac à dos :

Le problème du sac à dos est un problème d'optimisation combinatoire : étant donné un ensemble d'articles, chacun avec un poids et une valeur, déterminer le nombre de chaque article à inclure dans une collection de sorte que le poids total soit inférieur ou égal à une limite donnée et la valeur totale est aussi grande que possible. Il tire son nom du problème rencontré par quelqu'un qui est contraint par un sac à dos de taille fixe et doit le remplir avec les objets les plus précieux. Le problème se pose souvent dans l'allocation des ressources où les décideurs doivent choisir parmi un ensemble de projets ou de tâches non divisibles sous un budget fixe ou une contrainte de temps, respectivement.

Optimisation mathématique :

L'optimisation mathématique ou la programmation mathématique est la sélection d'un meilleur élément, en ce qui concerne un critère, à partir d'un ensemble d'alternatives disponibles. Des problèmes d'optimisation se posent dans toutes les disciplines quantitatives, de l'informatique et de l'ingénierie à la recherche opérationnelle et à l'économie, et le développement de méthodes de résolution intéresse les mathématiques depuis des siècles.

Méthodes numériques pour les équations différentielles ordinaires :

Les méthodes numériques pour les équations différentielles ordinaires sont des méthodes utilisées pour trouver des approximations numériques aux solutions des équations différentielles ordinaires (ODE). Leur utilisation est également connue sous le nom d'« intégration numérique », bien que ce terme puisse également désigner le calcul d'intégrales.

Jeu de parité :

Un jeu de parité se joue sur un graphe orienté coloré, où chaque nœud a été coloré par une priorité - l'un (généralement) d'un nombre fini de nombres naturels. Deux joueurs, 0 et 1, déplacent un jeton le long des bords du graphique. Le propriétaire du nœud sur lequel le jeton tombe sélectionne le nœud successeur, ce qui donne un chemin, appelé le jeu.

Polynôme:

En mathématiques, un polynôme est une expression composée de variables et de coefficients, qui n'implique que les opérations d'addition, de soustraction, de multiplication et d'exponentiation entière non négative de variables. Un exemple de polynôme d'un seul x indéterminé est x 2 − 4 x + 7 . Un exemple à trois variables est x 3 + 2 xyz 2yz + 1 .

Ordonnancement (processus de production) :

La planification est le processus d'organisation, de contrôle et d'optimisation du travail et des charges de travail dans un processus de production ou de fabrication. La planification est utilisée pour allouer les ressources de l'usine et des machines, planifier les ressources humaines, planifier les processus de production et acheter des matériaux.

Problème d'isomorphisme de sous-graphe :

En informatique théorique, le problème d' isomorphisme de sous-graphe est une tâche de calcul dans laquelle deux graphes G et H sont donnés en entrée, et il faut déterminer si G contient un sous-graphe isomorphe à H . L'isomorphisme de sous-graphe est une généralisation à la fois de la clique maximale problème et le problème de tester si un graphe contient un cycle hamiltonien, et est donc NP-complet. Cependant certains autres cas d'isomorphisme de sous-graphes peuvent être résolus en temps polynomial.

Système d'équations linéaires :

En mathématiques, un système d'équations linéaires est une collection d'une ou plusieurs équations linéaires impliquant le même ensemble de variables. Par exemple,

Système d'équations polynomiales :

Un système d'équations polynomiales est un ensemble d'équations simultanées f 1 = 0, ..., f h = 0 où les f i sont des polynômes à plusieurs variables, disons x 1 , ..., x n , sur un corps k .

Problème de chemin hamiltonien :

Dans le domaine mathématique de la théorie des graphes, le problème du chemin hamiltonien et le problème du cycle hamiltonien sont des problèmes pour déterminer si un chemin hamiltonien ou un cycle hamiltonien existe dans un graphe donné. Les deux problèmes sont NP-complets.

Problème de satisfiabilité booléenne :

En logique et en informatique, le problème de satisfiabilité booléenne est le problème de déterminer s'il existe une interprétation qui satisfait une formule booléenne donnée. En d'autres termes, il demande si les variables d'une formule booléenne donnée peuvent être systématiquement remplacées par les valeurs VRAI ou FAUX de manière à ce que la formule soit évaluée à VRAI. Si tel est le cas, la formule est dite satisfiable . D'un autre côté, si aucune affectation de ce type n'existe, la fonction exprimée par la formule est FAUX pour toutes les affectations de variables possibles et la formule est insatisfiable . Par exemple, la formule " a AND NOT b " est satisfiable car on peut trouver les valeurs a = VRAI et b = FAUX, ce qui fait = VRAI. En revanche, " a AND NOT a " est insatisfaisant.

Équation Eikonale :

L' équation eikonale est une équation différentielle partielle non linéaire rencontrée dans les problèmes de propagation des ondes, lorsque l'équation des ondes est approchée à l'aide de la théorie WKB. Il est dérivé des équations électromagnétiques de Maxwell et fournit un lien entre l'optique physique (onde) et l'optique géométrique (rayon).

Approximation creuse :

La théorie de l' approximation creuse traite des solutions creuses pour les systèmes d'équations linéaires. Les techniques permettant de trouver ces solutions et de les exploiter dans des applications ont été largement utilisées dans le traitement d'images, le traitement du signal, l'apprentissage automatique, l'imagerie médicale, etc.

Apprentissage du dictionnaire clairsemé :

Le codage clairsemé est une méthode d'apprentissage de la représentation qui vise à trouver une représentation clairsemée des données d'entrée sous la forme d'une combinaison linéaire d'éléments de base ainsi que de ces éléments de base eux-mêmes. Ces éléments sont appelés atomes et composent un dictionnaire . Il n'est pas nécessaire que les atomes du dictionnaire soient orthogonaux et ils peuvent constituer un ensemble couvrant trop complet. Cette configuration de problème permet également que la dimensionnalité des signaux représentés soit supérieure à celle des signaux observés. Les deux propriétés ci-dessus conduisent à avoir des atomes apparemment redondants qui permettent des représentations multiples du même signal mais offrent également une amélioration de la rareté et de la flexibilité de la représentation.

Classement statistique :

En statistique, la classification est le problème d'identifier à laquelle d'un ensemble de catégories (sous-populations) une observation appartient. Des exemples sont l'attribution d'un e-mail donné à la classe « spam » ou « non-spam », et l'attribution d'un diagnostic à un patient donné en fonction des caractéristiques observées du patient.

Détection de pas :

Dans les statistiques et le traitement du signal, la détection de pas est le processus consistant à trouver des changements brusques dans le niveau moyen d'une série chronologique ou d'un signal. Il est généralement considéré comme un cas particulier de la méthode statistique connue sous le nom de détection de changement ou de détection de point de changement. Souvent, le pas est petit et la série temporelle est corrompue par une sorte de bruit, ce qui rend le problème difficile car le pas peut être masqué par le bruit. Par conséquent, des algorithmes statistiques et/ou de traitement du signal sont souvent nécessaires.

Enseignement supervisé:

L'apprentissage supervisé (SL) est la tâche d'apprentissage automatique consistant à apprendre une fonction qui mappe une entrée à une sortie sur la base d'exemples de paires entrée-sortie. Il déduit une fonction à partir de données d'apprentissage étiquetées consistant en un ensemble d' exemples d'apprentissage . Dans l'apprentissage supervisé, chaque exemple est une paire constituée d'un objet d'entrée et d'une valeur de sortie souhaitée. Un algorithme d'apprentissage supervisé analyse les données d'apprentissage et produit une fonction inférée, qui peut être utilisée pour mapper de nouveaux exemples. Un scénario optimal permettra à l'algorithme de déterminer correctement les étiquettes de classe pour les instances invisibles. Cela nécessite que l'algorithme d'apprentissage généralise à partir des données d'apprentissage à des situations invisibles d'une manière « raisonnable ». Cette qualité statistique d'un algorithme est mesurée par l'erreur dite de généralisation.

Modèle de sujet :

Dans l'apprentissage automatique et le traitement du langage naturel, un modèle thématique est un type de modèle statistique permettant de découvrir les « sujets » abstraits qui apparaissent dans une collection de documents. La modélisation de sujet est un outil d'exploration de texte fréquemment utilisé pour la découverte de structures sémantiques cachées dans un corps de texte. Intuitivement, étant donné qu'un document traite d'un sujet particulier, on s'attendrait à ce que des mots particuliers apparaissent plus ou moins fréquemment dans le document : « chien » et « os » apparaîtront plus souvent dans les documents sur les chiens, « chat » et « miaou » apparaîtra dans les documents sur les chats, et « le » et « est » apparaîtront à peu près également dans les deux. Un document concerne généralement plusieurs sujets dans des proportions différentes ; ainsi, dans un document qui parle de 10 % de chats et 90 % de chiens, il y aurait probablement environ 9 fois plus de mots de chien que de mots de chat. Les « sujets » produits par les techniques de modélisation de sujets sont des groupes de mots similaires. Un modèle de sujet capture cette intuition dans un cadre mathématique, qui permet d'examiner un ensemble de documents et de découvrir, sur la base des statistiques des mots dans chacun, quels pourraient être les sujets et quel est l'équilibre des sujets de chaque document.

Tri topologique :

En informatique, un tri topologique ou un ordre topologique d'un graphe orienté est un ordre linéaire de ses sommets tel que pour chaque arête dirigée uv du sommet u au sommet v , u précède v dans l'ordre. Par exemple, les sommets du graphe peuvent représenter des tâches à effectuer, et les arêtes peuvent représenter des contraintes selon lesquelles une tâche doit être effectuée avant une autre ; dans cette application, un ordre topologique n'est qu'une séquence valide pour les tâches. Précisément, un tri topologique est un parcours de graphe dans lequel chaque nœud v n'est visité qu'après avoir visité toutes ses dépendances . Un ordre topologique est possible si et seulement si le graphe n'a pas de cycles orientés, c'est-à-dire s'il s'agit d'un graphe orienté acyclique (DAG). Tout DAG a au moins un ordre topologique, et des algorithmes sont connus pour construire un ordre topologique de n'importe quel DAG en temps linéaire. Le tri topologique a de nombreuses applications, en particulier dans les problèmes de classement tels que l'ensemble d'arcs de retour. Le tri topologique est possible même lorsque le DAG a des composants déconnectés.

Réseau neuronal artificiel:

Les réseaux de neurones artificiels ( RNA ), généralement simplement appelés réseaux de neurones ( NN ), sont des systèmes informatiques inspirés des réseaux de neurones biologiques qui constituent le cerveau des animaux.

Apprentissage non supervisé :

L'apprentissage non supervisé ( UL ) est un type d'algorithme qui apprend des modèles à partir de données non étiquetées. L'espoir est que, par mimétisme, la machine soit obligée de construire une représentation interne compacte de son monde et ensuite de générer un contenu imaginatif. Contrairement à l'apprentissage supervisé (SL) où les données sont étiquetées par un humain, par exemple comme « voiture » ​​ou « poisson », etc., l'UL présente une auto-organisation qui capture des modèles sous forme de prédilections neuronales ou de densités de probabilité. Les autres niveaux du spectre de supervision sont l'apprentissage par renforcement où la machine ne reçoit qu'un score de performance numérique comme guide, et l'apprentissage semi-supervisé où une plus petite partie des données est étiquetée. Deux grandes méthodes en UL sont les réseaux de neurones et les méthodes probabilistes.

Suivi vidéo :

Le suivi vidéo est le processus de localisation d'un objet en mouvement au fil du temps à l'aide d'une caméra. Il a une variété d'utilisations, dont certaines sont : l'interaction homme-machine, la sécurité et la surveillance, la communication et la compression vidéo, la réalité augmentée, le contrôle du trafic, l'imagerie médicale et le montage vidéo. Le suivi vidéo peut être un processus fastidieux en raison de la quantité de données contenues dans la vidéo. Ajoutant encore à la complexité est le besoin possible d'utiliser des techniques de reconnaissance d'objets pour le suivi, un problème difficile en soi.

Infographie (informatique):

L'infographie est un sous-domaine de l'informatique qui étudie les méthodes de synthèse numérique et de manipulation de contenu visuel. Bien que le terme se réfère souvent à l'étude de l'infographie tridimensionnelle, il englobe également les graphiques bidimensionnels et le traitement d'images.

Algorithmes d'oppression :

Algorithms of Oppression: How Search Engines Reinforce Racism est un livre de Safiya Umoja Noble publié en 2018 dans les domaines des sciences de l'information, de l'apprentissage automatique et de l'interaction homme-machine.

Machine à états algorithmique :

La méthode algorithmic state machine ( ASM ) est une méthode de conception de machines à états finis (FSM) développée à l'origine par Thomas E. Osborne à l'université de Californie à Berkeley (UCB) depuis 1960, introduite et mise en œuvre à Hewlett-Packard en 1968, formalisé et développé depuis 1967 et écrit par Christopher R. Clare depuis 1970. Il est utilisé pour représenter des schémas de circuits intégrés numériques. Le diagramme ASM est comme un diagramme d'état mais plus structuré et donc plus facile à comprendre. Un graphique ASM est une méthode de description des opérations séquentielles d'un système numérique.

Transformée en ondelettes stationnaire :


La transformée en ondelettes stationnaire (SWT) est un algorithme de transformation en ondelettes conçu pour surmonter le manque d'invariance de translation de la transformée en ondelettes discrète (DWT). L'invariance de traduction est obtenue en supprimant les sous-échantillonneurs et les sur-échantillonneurs dans le DWT et en suréchantillonnant les coefficients de filtre d'un facteur de dans le ème niveau de l'algorithme. Le SWT est un schéma intrinsèquement redondant car la sortie de chaque niveau de SWT contient le même nombre d'échantillons que l'entrée - donc pour une décomposition de N niveaux, il y a une redondance de N dans les coefficients d'ondelettes. Cet algorithme est plus connu sous le nom d'« algorithme à trous » qui fait référence à l'insertion de zéros dans les filtres. Il a été introduit par Holschneider et al.

Muhammad ibn Moussa al-Khwarizmi :

Muḥammad ibn Mūsā al-Khwārizmī , ou al-Khwarizmi et anciennement latinisé sous le nom d' Algorithmi , était un mathématicien persan qui a produit des travaux très influents en mathématiques, en astronomie et en géographie. Vers 820 de notre ère, il fut nommé astronome et directeur de la bibliothèque de la Maison de la Sagesse à Bagdad.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Muhammad ibn Moussa al-Khwarizmi :

Muḥammad ibn Mūsā al-Khwārizmī , ou al-Khwarizmi et anciennement latinisé sous le nom d' Algorithmi , était un mathématicien persan qui a produit des travaux très influents en mathématiques, en astronomie et en géographie. Vers 820 de notre ère, il fut nommé astronome et directeur de la bibliothèque de la Maison de la Sagesse à Bagdad.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Muhammad ibn Moussa al-Khwarizmi :

Muḥammad ibn Mūsā al-Khwārizmī , ou al-Khwarizmi et anciennement latinisé sous le nom d' Algorithmi , était un mathématicien persan qui a produit des travaux très influents en mathématiques, en astronomie et en géographie. Vers 820 de notre ère, il fut nommé astronome et directeur de la bibliothèque de la Maison de la Sagesse à Bagdad.

Algorta :

Algorta est une localité de la commune de Getxo, dans la province de Gascogne, Pays Basque, Espagne. En 1996, la population d'Algorta était de 35 600 habitants.

Algorta, Uruguay :

Algorta est un village du département du Río Negro en Uruguay.

Algorta (Métro Bilbao):

Algorta est une station de la ligne 1 du métro de Bilbao. Il est situé dans le quartier d'Algorta, dans la municipalité de Getxo. Sous sa forme actuelle, la gare a ouvert ses portes le 11 novembre 1995 en remplacement d'une ancienne gare.

Algorta (Métro Bilbao):

Algorta est une station de la ligne 1 du métro de Bilbao. Il est situé dans le quartier d'Algorta, dans la municipalité de Getxo. Sous sa forme actuelle, la gare a ouvert ses portes le 11 novembre 1995 en remplacement d'une ancienne gare.

Algorta (Métro Bilbao):

Algorta est une station de la ligne 1 du métro de Bilbao. Il est situé dans le quartier d'Algorta, dans la municipalité de Getxo. Sous sa forme actuelle, la gare a ouvert ses portes le 11 novembre 1995 en remplacement d'une ancienne gare.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Au-delà de la création :

Beyond Creation est un groupe de death metal technique canadien de Montréal, Québec. Ils sont actuellement signés chez Season of Mist records. Le groupe a sorti trois albums studio à ce jour : The Aura (2011), Earthborn Evolution (2014) et Algorhythm (2018). Ils ont fait de nombreuses tournées en Europe, aux États-Unis et au Japon, soutenant des groupes tels que Obscura et Dying Fetus, tout en étant en tête d'affiche de tournées aux côtés d'actes tels que Revocation, Psycroptic et Virvum.

Algorithme :

Algorythum est le cinquième album studio de Mentallo & The Fixer, sorti le 16 février 1999 par Metropolis Records. C'était la première sortie du groupe sans membre fondateur Dwayne Dassing et a été commémoré à sa sœur Danielle Dassing.

Algoryx Simulation AB :

Algoryx Simulation AB a été créée en 2007 à Umeå, en Suède, en tant que société dérivée de l'Université d'Umeå. Algoryx propose actuellement trois produits : Algodoo, Dynamics for SpaceClaim et AGX Multiphysics, un moteur physique professionnel pour l'ingénierie et les simulations en temps réel.

Algoryx Simulation AB :

Algoryx Simulation AB a été créée en 2007 à Umeå, en Suède, en tant que société dérivée de l'Université d'Umeå. Algoryx propose actuellement trois produits : Algodoo, Dynamics for SpaceClaim et AGX Multiphysics, un moteur physique professionnel pour l'ingénierie et les simulations en temps réel.

Algos :

Dans la mythologie grecque, Algea est utilisé par Hésiode au pluriel comme la personnification de la douleur, à la fois physique et mentale. Ils étaient porteurs de pleurs et de larmes. Leur homologue romain était Dolor.

Histoire de Bahreïn :

Bahreïn était un emplacement central de l'ancienne civilisation Dilmun. L'emplacement stratégique de Bahreïn dans le golfe Persique a amené la domination et l'influence principalement des Perses, des Sumériens, des Assyriens, des Babyloniens, des Portugais, des Arabes et des Britanniques.

AlgoSec :

AlgoSec est un fournisseur de logiciels de gestion des politiques de sécurité réseau, également appelé gestion des politiques de pare-feu.

Thalidomide :

Thalidomide, vendus sous les noms de marque Contergan et Thalomid entre autres, est un médicament utilisé pour traiter un certain nombre de cancers, la maladie du greffon contre l'hôte, et un certain nombre de maladies de la peau , y compris les complications de la lèpre. Bien qu'il ait été utilisé dans un certain nombre d'affections associées au VIH, une telle utilisation est associée à des niveaux accrus de virus. Il est administré par voie orale.

Château d'Algoso :

Le château d'Algoso est un château médiéval de la paroisse civile d'Algoso, Campo de Víboras e Uva, municipalité de Vimioso, dans le quartier portugais de Bragança. Le château d'Algoso est l'une des fortifications médiévales les plus importantes du Trás-os-montes oriental, liée aux batailles de succession léonais, aux politiques provisoires du monarque portugais indépendant et à l'importante commanderie religieuse des chevaliers hospitaliers qui ont établi leurs racines en 1224.

Soins de santé grand public McNeil :

McNeil Consumer Healthcare est une société américaine de produits médicaux appartenant au groupe de produits de santé Johnson & Johnson. Elle vend principalement des biens de consommation courante tels que des médicaments en vente libre.

Không có nhận xét nào:

Đăng nhận xét