Thứ Bảy, 29 tháng 5, 2021

Global optimization, Grammar induction, Graph coloring

Optimisation globale:

L'optimisation globale est une branche des mathématiques appliquées et de l'analyse numérique qui tente de trouver les minima ou maxima globaux d'une fonction ou d'un ensemble de fonctions sur un ensemble donné. Il est généralement décrit comme un problème de minimisation car la maximisation de la fonction à valeur réelle équivaut à la minimisation de la fonction .

Induction grammaticale:

L'induction grammaticale est le processus d'apprentissage automatique consistant à apprendre une grammaire formelle à partir d'un ensemble d'observations, construisant ainsi un modèle qui rend compte des caractéristiques des objets observés. Plus généralement, l'inférence grammaticale est la branche de l'apprentissage automatique dans laquelle l'espace d'instances se compose d'objets combinatoires discrets tels que des chaînes, des arbres et des graphiques.

Coloration du graphique:

En théorie des graphes, la coloration des graphes est un cas particulier de l'étiquetage des graphes; il s'agit d'une affectation d'étiquettes traditionnellement appelées «couleurs» à des éléments d'un graphe soumis à certaines contraintes. Dans sa forme la plus simple, c'est une manière de colorer les sommets d'un graphe de telle sorte qu'aucun deux sommets adjacents ne soient de la même couleur; c'est ce qu'on appelle une coloration de sommet . De même, une coloration d'arête attribue une couleur à chaque arête de sorte qu'aucune arête adjacente ne soit de la même couleur, et une coloration de face d'un graphe plan affecte une couleur à chaque face ou région de sorte qu'aucune face partageant une limite n'ait le même couleur.

La théorie des graphes:

En mathématiques, la théorie des graphes est l'étude des graphes , qui sont des structures mathématiques utilisées pour modéliser les relations par paires entre les objets. Un graphe dans ce contexte est composé de sommets reliés par des arêtes . Une distinction est faite entre les graphes non orientés , où les arêtes relient deux sommets symétriquement, et les graphes orientés , où les arêtes relient deux sommets de manière asymétrique. Les graphiques sont l'un des principaux objets d'étude en mathématiques discrètes.

Applications potentielles du graphène:

Les applications potentielles du graphène comprennent les circuits électriques / photoniques légers, minces et flexibles, les cellules solaires et divers procédés médicaux, chimiques et industriels améliorés ou activés par l'utilisation de nouveaux matériaux en graphène.

Calcul général sur les unités de traitement graphique:

Le calcul général sur les unités de traitement graphique est l'utilisation d'une unité de traitement graphique (GPU), qui ne gère généralement le calcul que pour l'infographie, pour effectuer des calculs dans des applications traditionnellement gérées par l'unité centrale (CPU). L'utilisation de plusieurs cartes vidéo dans un ordinateur, ou d'un grand nombre de puces graphiques, parallélise davantage la nature déjà parallèle du traitement graphique.

Théorie des groupes:

En mathématiques et en algèbre abstraite, la théorie des groupes étudie les structures algébriques appelées groupes. Le concept de groupe est au cœur de l'algèbre abstraite: d'autres structures algébriques bien connues, telles que les anneaux, les champs et les espaces vectoriels, peuvent toutes être vues comme des groupes dotés d'opérations et d'axiomes supplémentaires. Les groupes se reproduisent à travers les mathématiques et les méthodes de la théorie des groupes ont influencé de nombreuses parties de l'algèbre. Les groupes algébriques linéaires et les groupes de Lie sont deux branches de la théorie des groupes qui ont connu des avancées et sont devenues des domaines à part entière.

L'analyse d'image:

L'analyse d'image est l'extraction d'informations significatives à partir d'images; principalement à partir d'images numériques au moyen de techniques de traitement d'images numériques. Les tâches d'analyse d'image peuvent être aussi simples que la lecture d'étiquettes à code-barres ou aussi sophistiquées que l'identification d'une personne à partir de son visage.

Traitement d'image numérique:

Le traitement d'image numérique est l'utilisation d'un ordinateur numérique pour traiter des images numériques au moyen d'un algorithme. En tant que sous-catégorie ou domaine du traitement de signal numérique, le traitement d'image numérique présente de nombreux avantages par rapport au traitement d'image analogique. Cela permet d'appliquer une gamme beaucoup plus large d'algorithmes aux données d'entrée et peut éviter des problèmes tels que l'accumulation de bruit et de distorsion pendant le traitement. Les images étant définies sur deux dimensions, le traitement numérique des images peut être modélisé sous la forme de systèmes multidimensionnels. La génération et le développement du traitement numérique des images sont principalement affectés par trois facteurs: premièrement, le développement des ordinateurs; deuxièmement, le développement des mathématiques; troisièmement, la demande d'un large éventail d'applications dans les domaines de l'environnement, de l'agriculture, de l'armée, de l'industrie et des sciences médicales a augmenté.

Théorie de l'information:

La théorie de l'information est l'étude scientifique de la quantification, du stockage et de la communication de l'information numérique. Le domaine a été fondamentalement établi par les œuvres de Harry Nyquist et Ralph Hartley, dans les années 1920, et de Claude Shannon dans les années 1940. Le domaine se situe à l'intersection de la théorie des probabilités, des statistiques, de l'informatique, de la mécanique statistique, de l'ingénierie de l'information et de l'électrotechnique.

Infrarouge:

L'infrarouge ( IR ), parfois appelé lumière infrarouge , est un rayonnement électromagnétique (REM) dont les longueurs d'onde sont plus longues que celles de la lumière visible. Il est donc invisible à l'œil humain. IR est généralement compris comme englobant des longueurs d'onde allant du bord rouge nominal du spectre visible autour de 700 nanomètres à 1 millimètre (300 GHz). Le rayonnement du corps noir provenant d'objets proches de la température ambiante est presque entièrement à des longueurs d'onde infrarouges. En tant que forme de rayonnement électromagnétique, l'IR propage l'énergie et l'élan, avec des propriétés correspondant à la fois à celles d'une onde et d'une particule, le photon.

Programmation entière:

Un problème de programmation d'entiers est un programme d' optimisation mathématique ou de faisabilité dans lequel certaines ou toutes les variables sont limitées à des nombres entiers. Dans de nombreux contextes, le terme désigne la programmation linéaire entière (ILP), dans laquelle la fonction objectif et les contraintes sont linéaires.

K-signifie clustering:

Le clustering k -means est une méthode de quantification vectorielle, issue du traitement du signal, qui vise à partitionner n observations en k clusters dans lesquels chaque observation appartient au cluster avec la moyenne la plus proche, servant de prototype du cluster. Cela se traduit par un partitionnement de l'espace de données en cellules Voronoi. k -means clustering minimise les variances intra-cluster, mais pas les distances euclidiennes régulières, ce qui serait le problème de Weber le plus difficile: la moyenne optimise les erreurs quadratiques, alors que seule la médiane géométrique minimise les distances euclidiennes. Par exemple, de meilleures solutions euclidiennes peuvent être trouvées en utilisant des k-médianes et des k-médoïdes.

Lidar:

Le lidar est une méthode pour déterminer les distances en ciblant un objet avec un laser et en mesurant le temps nécessaire à la lumière réfléchie pour retourner au récepteur. Le lidar peut également être utilisé pour faire des représentations numériques en 3D de zones à la surface de la terre et au fond de l'océan, en raison des différences de temps de retour du laser et en faisant varier les longueurs d'onde du laser. Il a des applications terrestres, aériennes et mobiles.

Algèbre linéaire:

L'algèbre linéaire est la branche des mathématiques concernant les équations linéaires telles que:

Programmation linéaire:

La programmation linéaire est une méthode permettant d'obtenir le meilleur résultat dans un modèle mathématique dont les exigences sont représentées par des relations linéaires. La programmation linéaire est un cas particulier de la programmation mathématique.

Liquide Crystal:

Les cristaux liquides (CL) sont un état de la matière qui a des propriétés entre celles des liquides conventionnels et celles des cristaux solides. Par exemple, un cristal liquide peut s'écouler comme un liquide, mais ses molécules peuvent être orientées d'une manière cristalline. Il existe de nombreux types de phases de cristaux liquides, qui se distinguent par leurs différentes propriétés optiques. Les zones contrastées dans les textures correspondent à des domaines où les molécules de cristaux liquides sont orientées dans des directions différentes. Dans un domaine, cependant, les molécules sont bien ordonnées. Les matériaux LC peuvent ne pas toujours être à l'état de cristal liquide de la matière.

Service basé sur la localisation:

Un service basé sur la localisation ( LBS ) est un terme général désignant des services logiciels qui utilisent des données et des informations géographiques pour fournir des services ou des informations aux utilisateurs. LBS peut être utilisé dans une variété de contextes, tels que la santé, la recherche d'objets en intérieur, le divertissement, le travail, la vie personnelle, etc. . LBS peut également inclure le commerce mobile lorsqu'il prend la forme de coupons ou de publicités destinées aux clients en fonction de leur emplacement actuel. Ils incluent des services météorologiques personnalisés et même des jeux basés sur la localisation.

Régression logistique:

Dans les statistiques, le modèle logistique est utilisé pour modéliser la probabilité qu'une certaine classe ou événement existe tel que réussite / échec, victoire / perte, vivant / mort ou sain / malade. Cela peut être étendu pour modéliser plusieurs classes d'événements comme déterminer si une image contient un chat, un chien, un lion, etc. Chaque objet détecté dans l'image se verrait attribuer une probabilité entre 0 et 1, avec une somme de un.

Applications de l'intelligence artificielle:

L'intelligence artificielle , définie comme l'intelligence présentée par des machines, a de nombreuses applications dans la société d'aujourd'hui. Plus précisément, c'est l'IA faible, la forme d'IA dans laquelle des programmes sont développés pour effectuer des tâches spécifiques, qui est utilisée pour un large éventail d'activités, notamment le diagnostic médical, les plates-formes de négociation électroniques, le contrôle de robot et la télédétection. L'IA a été utilisée pour développer et faire progresser de nombreux domaines et industries, notamment la finance, la santé, l'éducation, les transports, etc.

Apprentissage automatique:

L'apprentissage automatique ( ML ) est l'étude des algorithmes informatiques qui s'améliorent automatiquement grâce à l'expérience et à l'utilisation de données. Il est considéré comme faisant partie de l'intelligence artificielle. Les algorithmes d'apprentissage automatique construisent un modèle basé sur des échantillons de données, appelés «données d'apprentissage», afin de faire des prédictions ou des décisions sans être explicitement programmés pour le faire. Les algorithmes d'apprentissage automatique sont utilisés dans une grande variété d'applications, telles que la médecine, le filtrage des e-mails et la vision par ordinateur, où il est difficile ou impossible de développer des algorithmes conventionnels pour effectuer les tâches nécessaires.

Contrôle de l'apprentissage automatique:

Le contrôle d'apprentissage automatique (MLC) est un sous-domaine de l'apprentissage automatique, du contrôle intelligent et de la théorie du contrôle qui résout les problèmes de contrôle optimaux avec des méthodes d'apprentissage automatique.Les applications clés sont des systèmes non linéaires complexes pour lesquels les méthodes de théorie du contrôle linéaire ne sont pas applicables.

Traduction automatique:

La traduction automatique , parfois désignée par l'abréviation MT , est un sous-domaine de la linguistique informatique qui étudie l'utilisation de logiciels pour traduire du texte ou de la parole d'une langue à une autre.

Nanoparticules magnétiques:

Les nanoparticules magnétiques sont une classe de nanoparticules qui peuvent être manipulées à l'aide de champs magnétiques. Ces particules sont généralement constituées de deux composants, un matériau magnétique, souvent du fer, du nickel et du cobalt, et un composant chimique qui a une fonctionnalité. Alors que les nanoparticules ont un diamètre inférieur à 1 micromètre, les plus grosses microbilles ont un diamètre de 0,5 à 500 micromètres. Les grappes de nanoparticules magnétiques composées d'un certain nombre de nanoparticules magnétiques individuelles sont appelées nanobilles magnétiques d'un diamètre de 50 à 200 nanomètres. Les amas de nanoparticules magnétiques sont la base de leur assemblage magnétique ultérieur en nanochains magnétiques. Les nanoparticules magnétiques ont fait l'objet de nombreuses recherches récemment parce qu'elles possèdent des propriétés attrayantes qui pourraient voir une utilisation potentielle dans la catalyse, y compris les catalyseurs à base de nanomatériaux, la biomédecine et le ciblage spécifique des tissus, les cristaux photoniques colloïdaux magnétiquement accordables, la microfluidique, l'imagerie par résonance magnétique, l'imagerie par particules magnétiques , stockage de données, remédiation environnementale, nanofluides, filtres optiques, capteur de défaut, refroidissement magnétique et capteurs cationiques.

Spintronique:

La spintronique , également connue sous le nom d' électronique de spin , est l'étude du spin intrinsèque de l'électron et de son moment magnétique associé, en plus de sa charge électronique fondamentale, dans les dispositifs à semi-conducteurs. Le domaine de la spintronique concerne le couplage spin-charge dans les systèmes métalliques; les effets analogues dans les isolants relèvent du domaine des multiferroïques.

Science du management:

La science de la gestion ( MS ) est une vaste étude interdisciplinaire de la résolution de problèmes et de la prise de décision dans les organisations humaines, avec des liens solides avec la gestion, l'économie, les affaires, l'ingénierie, le conseil en gestion et d'autres domaines. Il utilise divers principes, stratégies et méthodes analytiques fondés sur la recherche scientifique, notamment la modélisation mathématique, les statistiques et les algorithmes numériques pour améliorer la capacité d'une organisation à prendre des décisions de gestion rationnelles et précises en arrivant à des solutions optimales ou quasi optimales à des problèmes de décision complexes. La science de la gestion aide les entreprises à atteindre leurs objectifs en utilisant diverses méthodes scientifiques.

Logique à plusieurs valeurs:

En logique, une logique à plusieurs valeurs est un calcul propositionnel dans lequel il y a plus de deux valeurs de vérité. Traditionnellement, dans le calcul logique d'Aristote, il n'y avait que deux valeurs possibles pour toute proposition. La logique classique à deux valeurs peut être étendue à la logique à n valeurs pour n supérieur à 2. Les plus populaires dans la littérature sont à trois valeurs, la valeur finie avec plus de trois valeurs et la valeur infinie (infiniment-plusieurs- valué), comme la logique floue et la logique des probabilités.

Analyse mathematique:

L'analyse est la branche des mathématiques traitant des limites et des théories associées, telles que la différenciation, l'intégration, la mesure, les séries infinies et les fonctions analytiques.

Optimisation mathématique:

L'optimisation mathématique ou la programmation mathématique est la sélection d'un meilleur élément, par rapport à un critère, à partir d'un ensemble d'alternatives disponibles. Des problèmes d'optimisation de toutes sortes se posent dans toutes les disciplines quantitatives, de l'informatique et de l'ingénierie à la recherche opérationnelle et à l'économie, et le développement de méthodes de résolution intéresse les mathématiques depuis des siècles.

Mathématiques appliquées:

Les mathématiques appliquées sont l'application de méthodes mathématiques dans différents domaines tels que la physique, l'ingénierie, la médecine, la biologie, la finance, les affaires, l'informatique et l'industrie. Ainsi, les mathématiques appliquées sont une combinaison de sciences mathématiques et de connaissances spécialisées. Le terme «mathématiques appliquées» décrit également la spécialité professionnelle dans laquelle les mathématiciens travaillent sur des problèmes pratiques en formulant et en étudiant des modèles mathématiques.

Matrice (mathématiques):

En mathématiques, une matrice est un tableau rectangulaire ou un tableau de nombres, de symboles ou d'expressions, disposés en lignes et en colonnes . Par exemple, la dimension de la matrice ci-dessous est 2 × 3, car il y a deux lignes et trois colonnes:

Algorithme mémétique:

En informatique et en recherche opérationnelle, un algorithme mémétique (MA) est une extension de l'algorithme génétique traditionnel. Il utilise une technique de recherche locale pour réduire la probabilité d'une convergence prématurée.

Métaheuristique:

En informatique et en optimisation mathématique, une métaheuristique est une procédure ou une heuristique de plus haut niveau conçue pour trouver, générer ou sélectionner une heuristique qui peut fournir une solution suffisamment bonne à un problème d'optimisation, en particulier avec des informations incomplètes ou imparfaites ou une capacité de calcul limitée. Les métaheuristiques échantillonnent un sous-ensemble de solutions qui est par ailleurs trop grand pour être complètement énuméré ou autrement exploré. Les métaheuristiques peuvent faire relativement peu d'hypothèses sur le problème d'optimisation en cours de résolution et peuvent donc être utilisables pour une variété de problèmes.

Microfluidique:

La microfluidique fait référence au comportement, au contrôle précis et à la manipulation de fluides géométriquement contraints à une petite échelle à laquelle les forces de surface dominent les forces volumétriques. C'est un domaine multidisciplinaire qui implique l'ingénierie, la physique, la chimie, la biochimie, la nanotechnologie et la biotechnologie. Il a des applications pratiques dans la conception de systèmes qui traitent de faibles volumes de fluides pour réaliser le multiplexage, l'automatisation et le criblage à haut débit. La microfluidique est apparue au début des années 1980 et est utilisée dans le développement de têtes d'impression à jet d'encre, de puces à ADN, de technologie de laboratoire sur puce, de micropropulsion et de technologies micro-thermiques.

Micropaléontologie:

La micropaléontologie est la branche de la paléontologie (paléontologie) qui étudie les microfossiles, ou fossiles qui nécessitent l'utilisation d'un microscope pour voir l'organisme, sa morphologie et ses détails caractéristiques.

Microscopie:

La microscopie est le domaine technique de l'utilisation de microscopes pour visualiser des objets et des zones d'objets qui ne peuvent pas être vus à l'œil nu. Il existe trois branches bien connues de la microscopie: la microscopie optique, électronique et à sonde à balayage, ainsi que le domaine émergent de la microscopie à rayons X.

Four micro onde:

Les micro - ondes sont une forme de rayonnement électromagnétique avec des longueurs d'onde allant d'environ un mètre à un millimètre correspondant à des fréquences comprises entre 300 MHz et 300 GHz respectivement. Différentes sources définissent différentes gammes de fréquences en tant que micro-ondes; la large définition ci-dessus comprend à la fois les bandes UHF et EHF. Une définition plus courante dans l'ingénierie des radiofréquences est la plage comprise entre 1 et 100 GHz. Dans tous les cas, les micro-ondes incluent au minimum toute la bande SHF. Les fréquences de la gamme de micro - ondes sont souvent désignés par leurs désignations de bande radar IEEE: S, C, X, K u, K ou K une bande, ou par des désignations similaires de l' OTAN ou de l' UE.

Arithmétique modulaire:

En mathématiques, l'arithmétique modulaire est un système d'arithmétique pour les entiers, où les nombres «s'enroulent» lorsqu'ils atteignent une certaine valeur, appelée module . L'approche moderne de l'arithmétique modulaire a été développée par Carl Friedrich Gauss dans son livre Disquisitiones Arithmeticae , publié en 1801.

Clonage moléculaire:

Le clonage moléculaire est un ensemble de méthodes expérimentales en biologie moléculaire qui sont utilisées pour assembler des molécules d'ADN recombinant et pour diriger leur réplication dans les organismes hôtes. L'utilisation du mot clonage fait référence au fait que la méthode implique la réplication d'une molécule pour produire une population de cellules avec des molécules d'ADN identiques. Le clonage moléculaire utilise généralement des séquences d'ADN provenant de deux organismes différents: l'espèce qui est la source de l'ADN à cloner et l'espèce qui servira d'hôte vivant pour la réplication de l'ADN recombinant. Les méthodes de clonage moléculaire sont au cœur de nombreux domaines contemporains de la biologie et de la médecine modernes.

Dynamique moléculaire:

La dynamique moléculaire ( MD ) est une méthode de simulation informatique permettant d'analyser les mouvements physiques des atomes et des molécules. Les atomes et les molécules sont autorisés à interagir pendant une période de temps fixe, donnant une vue de «l'évolution» dynamique du système. Dans la version la plus courante, les trajectoires des atomes et des molécules sont déterminées en résolvant numériquement les équations de mouvement de Newton pour un système de particules en interaction, où les forces entre les particules et leurs énergies potentielles sont souvent calculées à l'aide de potentiels interatomiques ou de champs de force de la mécanique moléculaire. La méthode est appliquée principalement en physique chimique, en science des matériaux et en biophysique.

Capture de mouvement:

La capture de mouvement est le processus d'enregistrement du mouvement d'objets ou de personnes. Il est utilisé dans les applications militaires, de divertissement, sportives, médicales et pour la validation de la vision par ordinateur et de la robotique. Dans la réalisation de films et le développement de jeux vidéo, cela fait référence à l'enregistrement des actions d'acteurs humains et à l'utilisation de ces informations pour animer des modèles de personnages numériques en animation informatique 2D ou 3D. Lorsqu'il inclut le visage et les doigts ou capture des expressions subtiles, il est souvent appelé capture de performance . Dans de nombreux domaines, la capture de mouvement est parfois appelée suivi de mouvement , mais dans la réalisation de films et les jeux, le suivi de mouvement se réfère généralement davantage au mouvement de match .

Apprentissage multi-tâches:

L'apprentissage multi-tâches (MTL) est un sous-domaine de l'apprentissage automatique dans lequel plusieurs tâches d'apprentissage sont résolues en même temps, tout en exploitant les points communs et les différences entre les tâches. Cela peut améliorer l'efficacité de l'apprentissage et la précision des prévisions pour les modèles spécifiques aux tâches, par rapport à la formation des modèles séparément. Les premières versions de MTL étaient appelées «indices».

Nanomatériaux:

Les nanomatériaux décrivent, en principe, des matériaux dont une seule unité de petite taille comprise entre 1 et 100 nm.

Applications de la nanotechnologie:

Les applications de la nanotechnologie intègrent généralement des usages industriels, médicinaux et énergétiques. Il s'agit notamment de matériaux de construction plus durables, de l'administration de médicaments thérapeutiques et de piles à combustible à hydrogène de densité plus élevée qui sont respectueuses de l'environnement. Étant donné que les nanoparticules et les nanodispositifs sont très polyvalents grâce à la modification de leurs propriétés physiochimiques, ils ont trouvé des utilisations dans l'électronique à l'échelle nanométrique, les traitements contre le cancer, les vaccins, les piles à combustible à hydrogène et les batteries au nanographène.

Génération en langage naturel:

La génération en langage naturel ( NLG ) est un processus logiciel qui produit une sortie en langage naturel. S'il est largement admis que le résultat de tout processus NLG est du texte, il y a un certain désaccord sur la question de savoir si les entrées d'un système NLG doivent être non linguistiques. Les applications courantes des méthodes NLG comprennent la production de divers rapports, par exemple des rapports météorologiques et patients; légendes d'image; et les chatbots.

Programmation non linéaire:

En mathématiques, la programmation non linéaire ( PNL ) est le processus de résolution d'un problème d'optimisation où certaines des contraintes ou la fonction objectif sont non linéaires. Un problème d'optimisation est celui du calcul des extrema d'une fonction objectif sur un ensemble de variables réelles inconnues et conditionnel à la satisfaction d'un système d'égalités et d'inégalités, collectivement appelés contraintes. C'est le sous-domaine de l'optimisation mathématique qui traite des problèmes non linéaires.

La théorie du nombre:

La théorie des nombres est une branche des mathématiques pures consacrée principalement à l'étude des entiers et des fonctions à valeurs entières. Le mathématicien allemand Carl Friedrich Gauss (1777–1855) a déclaré: "Les mathématiques sont la reine des sciences - et la théorie des nombres est la reine des mathématiques." Les théoriciens des nombres étudient les nombres premiers ainsi que les propriétés des objets mathématiques constitués d'entiers ou définis comme des généralisations des entiers.

Prédiction numérique du temps:

La prévision numérique du temps ( PNT ) utilise des modèles mathématiques de l'atmosphère et des océans pour prédire le temps en fonction des conditions météorologiques actuelles. Bien que tentées pour la première fois dans les années 1920, ce n'est qu'à l'avènement de la simulation par ordinateur dans les années 1950 que les prévisions météorologiques numériques ont produit des résultats réalistes. Un certain nombre de modèles de prévision mondiaux et régionaux sont exécutés dans différents pays du monde entier, en utilisant les observations météorologiques actuelles relayées par des radiosondes, des satellites météorologiques et d'autres systèmes d'observation comme entrées.

Aperçu de la reconnaissance d'objets:

Le plan suivant est fourni à titre d'aperçu et de guide d'actualité sur la reconnaissance d'objets:

Reconnaissance optique de caractères:

La reconnaissance optique de caractères ou lecteur optique de caractères ( OCR ) est la conversion électronique ou mécanique d'images de texte dactylographié, manuscrit ou imprimé en texte codé par machine, que ce soit à partir d'un document numérisé, d'une photo d'un document, d'une scène-photo ou d'un sous-titre. texte superposé à une image.

Tomographie par cohérence optique:

La tomographie par cohérence optique ( OCT ) est une technique d'imagerie qui utilise une lumière à faible cohérence pour capturer des images bidimensionnelles et tridimensionnelles à résolution micrométrique à partir d'un support de diffusion optique. Il est utilisé pour l'imagerie médicale et les essais non destructifs industriels (CND). La tomographie par cohérence optique est basée sur une interférométrie à faible cohérence, utilisant généralement une lumière proche infrarouge. L'utilisation d'une lumière de longueur d'onde relativement longue lui permet de pénétrer dans le milieu diffusant. La microscopie confocale, une autre technique optique, pénètre généralement moins profondément dans l'échantillon mais avec une résolution plus élevée.

Fibre optique:

Une fibre optique est une fibre flexible et transparente fabriquée en étirant du verre (silice) ou du plastique à un diamètre légèrement plus épais que celui d'un cheveu humain. Les fibres optiques sont le plus souvent utilisées comme moyen de transmettre la lumière entre les deux extrémités de la fibre et sont largement utilisées dans les communications par fibre optique, où elles permettent une transmission sur de plus longues distances et à des bandes passantes plus élevées que les câbles électriques. Les fibres sont utilisées à la place des fils métalliques car les signaux les parcourent avec moins de pertes; en outre, les fibres sont insensibles aux interférences électromagnétiques, un problème dont souffrent les fils métalliques. Les fibres sont également utilisées pour l'éclairage et l'imagerie, et sont souvent enveloppées dans des faisceaux de sorte qu'elles peuvent être utilisées pour transporter de la lumière ou des images hors d'espaces confinés, comme dans le cas d'un fibroscope. Des fibres spécialement conçues sont également utilisées pour diverses autres applications, dont certaines sont des capteurs à fibre optique et des lasers à fibre.

Optique:

L'optique est la branche de la physique qui étudie le comportement et les propriétés de la lumière, y compris ses interactions avec la matière et la construction d'instruments qui l'utilisent ou la détectent. L'optique décrit généralement le comportement de la lumière visible, ultraviolette et infrarouge. La lumière étant une onde électromagnétique, d'autres formes de rayonnement électromagnétique telles que les rayons X, les micro-ondes et les ondes radio présentent des propriétés similaires.

Optimisation mathématique:

L'optimisation mathématique ou la programmation mathématique est la sélection d'un meilleur élément, par rapport à un critère, à partir d'un ensemble d'alternatives disponibles. Des problèmes d'optimisation de toutes sortes se posent dans toutes les disciplines quantitatives, de l'informatique et de l'ingénierie à la recherche opérationnelle et à l'économie, et le développement de méthodes de résolution intéresse les mathématiques depuis des siècles.

Applications des p-boîtes et de l'analyse des limites de probabilité:

Les boîtes P et l'analyse des limites de probabilité ont été utilisées dans de nombreuses applications couvrant de nombreuses disciplines de l'ingénierie et des sciences de l'environnement, notamment:

  • Conception technique
  • Sollicitation d'experts
  • Analyse des distributions de sensibilité des espèces
  • Analyse de sensibilité en ingénierie aérospatiale de la charge de flambement de la jupe avant du lanceur Ariane 5
  • Modèles ODE de la dynamique des réacteurs chimiques
  • Variabilité pharmacocinétique des COV inhalés
  • Modélisation des eaux souterraines
  • Probabilité de défaillance limite pour les systèmes en série
  • Contamination de métaux lourds dans le sol d'une friche industrielle sidérurgique
  • Propagation de l'incertitude pour les modèles de risque de salinité
  • Évaluation de la sécurité du système d'alimentation électrique
  • Évaluation des risques liés aux terres contaminées
  • Systèmes d'ingénierie pour le traitement de l'eau potable
  • Calcul des niveaux de criblage du sol
  • Analyse des risques pour la santé humaine et l'environnement par l'US EPA de la contamination aux PCB sur le site Housatonic River Superfund
  • Évaluation environnementale du site du Superfund de l'estuaire du Calcasieu
  • Ingénierie aérospatiale pour la poussée des buses supersoniques
  • Vérification et validation en calcul scientifique pour des problèmes d'ingénierie
  • Toxicité pour les petits mammifères de la contamination environnementale par le mercure
  • Modélisation du temps de parcours de la pollution dans les eaux souterraines
  • Analyse de fiabilité
  • Évaluation des espèces en voie de disparition pour la réintroduction de l'opossum de Leadbeater
  • Exposition d'oiseaux insectivores à un pesticide agricole
  • Projections du changement climatique
  • Temps d'attente dans les systèmes de mise en file d'attente
  • Analyse du risque d'extinction de la chouette tachetée dans la péninsule olympique
  • Biosécurité contre l'introduction d'espèces envahissantes ou de ravageurs agricoles
  • Analyse structurelle par éléments finis
  • Estimations de coût
  • Certification des stocks nucléaires
  • Fracking risques de pollution de l'eau
  • Optimisation de la trajectoire spatiale
  • Probabilité d'impact d'astéroïde
La reconnaissance de formes:

La reconnaissance de formes est la reconnaissance automatisée des modèles et des régularités dans les données. Il a des applications dans l'analyse statistique des données, le traitement du signal, l'analyse d'images, la récupération d'informations, la bioinformatique, la compression de données, l'infographie et l'apprentissage automatique. La reconnaissance de formes a ses origines dans les statistiques et l'ingénierie; Certaines approches modernes de la reconnaissance de formes incluent l'utilisation de l'apprentissage automatique, en raison de la disponibilité accrue des mégadonnées et d'une nouvelle abondance de puissance de traitement. Cependant, ces activités peuvent être considérées comme deux facettes d'un même champ d'application et, ensemble, elles ont connu un développement substantiel au cours des dernières décennies. Une définition moderne de la reconnaissance de formes est:

Le domaine de la reconnaissance de formes concerne la découverte automatique de régularités dans les données grâce à l'utilisation d'algorithmes informatiques et l'utilisation de ces régularités pour entreprendre des actions telles que la classification des données en différentes catégories.

Réaction en chaîne par polymérase:

La réaction en chaîne par polymérase ( PCR ) est une méthode largement utilisée pour réaliser rapidement des millions à des milliards de copies d'un échantillon d'ADN spécifique, permettant aux scientifiques de prélever un très petit échantillon d'ADN et de l'amplifier à une quantité suffisamment grande pour l'étudier en détail. La PCR a été inventée en 1983 par le biochimiste américain Kary Mullis de Cetus Corporation. Elle est fondamentale pour de nombreuses procédures utilisées dans les tests et la recherche génétiques, y compris l'analyse d'échantillons anciens d'ADN et l'identification d'agents infectieux. En utilisant la PCR, des copies de très petites quantités de séquences d'ADN sont amplifiées de manière exponentielle dans une série de cycles de changements de température. La PCR est maintenant une technique courante et souvent indispensable utilisée dans la recherche en laboratoire médical pour une grande variété d'applications, y compris la recherche biomédicale et la criminalistique.

D'égal à égal:

L' informatique ou la mise en réseau peer-to-peer ( P2P ) est une architecture d'application distribuée qui partitionne les tâches ou les charges de travail entre pairs. Les pairs sont des participants également privilégiés et équipotents de l'application. On dit qu'ils forment un réseau peer-to-peer de nœuds.

Photonique:

La photonique est la science physique et l'application de la génération, de la détection et de la manipulation de la lumière (photon) par émission, transmission, modulation, traitement du signal, commutation, amplification et détection. Bien que couvrant toutes les applications techniques de la lumière sur tout le spectre, la plupart des applications photoniques se situent dans la gamme de la lumière visible et proche infrarouge. Le terme photonique s'est développé à la suite des premiers émetteurs de lumière à semi-conducteurs pratiques inventés au début des années 1960 et des fibres optiques développées dans les années 1970.

Photovoltaïque:

La photovoltaïque ( PV ) est la conversion de la lumière en électricité à l'aide de matériaux semi-conducteurs qui présentent l'effet photovoltaïque, un phénomène étudié en physique, en photochimie et en électrochimie. L'effet photovoltaïque est utilisé dans le commerce pour la production d'électricité et comme capteurs photoélectriques.

La physique:

La physique est la science naturelle qui étudie la matière, son mouvement et son comportement dans l'espace et le temps, ainsi que les entités associées d'énergie et de force. La physique est l'une des disciplines scientifiques les plus fondamentales et son objectif principal est de comprendre le comportement de l'univers.

Analyses prédictives:

L'analyse prédictive englobe une variété de techniques statistiques allant de l'exploration de données, de la modélisation prédictive et de l'apprentissage automatique qui analysent les faits actuels et historiques pour faire des prédictions sur des événements futurs ou inconnus.

Modélisation prédictive:

La modélisation prédictive utilise des statistiques pour prédire les résultats. Le plus souvent, l'événement que l'on veut prédire se situe dans le futur, mais la modélisation prédictive peut être appliquée à tout type d'événement inconnu, quel que soit le moment où il s'est produit. Par exemple, les modèles prédictifs sont souvent utilisés pour détecter les crimes et identifier les suspects, après que le crime a eu lieu.

Probabilité:

La probabilité est la branche des mathématiques concernant les descriptions numériques de la probabilité qu'un événement se produise ou de la probabilité qu'une proposition soit vraie. La probabilité d'un événement est un nombre compris entre 0 et 1, où, grosso modo, 0 indique l'impossibilité de l'événement et 1 indique la certitude. Plus la probabilité d'un événement est élevée, plus il est probable que l'événement se produise. Un exemple simple est le lancer d'une pièce de monnaie équitable (non biaisée). Puisque la pièce est juste, les deux résultats sont tous deux également probables; la probabilité de "têtes" est égale à la probabilité de "queues"; et comme aucun autre résultat n'est possible, la probabilité de «face» ou de «queue» est de 1/2.

Réseau de neurones probabiliste:

Un réseau neuronal probabiliste (PNN) est un réseau neuronal à réaction, qui est largement utilisé dans les problèmes de classification et de reconnaissance de formes. Dans l'algorithme PNN, la fonction de distribution de probabilité parente (PDF) de chaque classe est approximée par une fenêtre de Parzen et une fonction non paramétrique. Ensuite, en utilisant le PDF de chaque classe, la probabilité de classe d'une nouvelle donnée d'entrée est estimée et la règle de Bayes est ensuite utilisée pour attribuer la classe avec la probabilité postérieure la plus élevée aux nouvelles données d'entrée. Par cette méthode, la probabilité d'une mauvaise classification est minimisée. Ce type d'ANN a été dérivé du réseau bayésien et d'un algorithme statistique appelé analyse discriminante de Kernel Fisher. Il a été introduit par DF ​​Specht en 1966. Dans un PNN, les opérations sont organisées en un réseau feedforward multicouche à quatre couches:

  • Couche d'entrée
  • Couche de motif
  • Couche de sommation
  • Couche de sortie
Psychologie:

La psychologie est la science de l'esprit et du comportement. La psychologie comprend l'étude des phénomènes conscients et inconscients, ainsi que des sentiments et de la pensée. C'est une discipline universitaire d'une immense portée. Les psychologues cherchent également à comprendre les propriétés émergentes du cerveau, reliant la discipline aux neurosciences. En tant que science sociale, les psychologues visent à comprendre le comportement des individus et des groupes.

L'informatique quantique:

L'informatique quantique est l'exploitation des propriétés collectives des états quantiques, telles que la superposition et l'intrication, pour effectuer des calculs. Les appareils qui effectuent des calculs quantiques sont connus sous le nom d' ordinateurs quantiques . On pense qu'ils sont capables de résoudre certains problèmes de calcul, tels que la factorisation d'entiers, beaucoup plus rapidement que les ordinateurs classiques. L'étude de l'informatique quantique est un sous-domaine de la science de l'information quantique. Il est susceptible de se développer au cours des prochaines années à mesure que le domaine évoluera vers une utilisation réelle dans les applications pharmaceutiques, la sécurité des données et d'autres applications.

Applications de la mécanique quantique:

La physique quantique est une branche de la physique moderne dans laquelle l'énergie et la matière sont décrites à leur niveau le plus fondamental, celui des quanta d'énergie, des particules élémentaires et des champs quantiques. La physique quantique englobe toute discipline concernée par les systèmes qui présentent des effets de mécanique quantique notables, où les ondes ont des propriétés de particules et les particules se comportent comme des ondes. Les applications de la mécanique quantique comprennent l'explication de phénomènes trouvés dans la nature ainsi que le développement de technologies qui reposent sur des effets quantiques, comme les circuits intégrés et les lasers.

Technologie quantique:

La technologie quantique est un domaine émergent de la physique et de l'ingénierie, qui repose sur les principes de la physique quantique. L'informatique quantique, les capteurs quantiques, la cryptographie quantique, la simulation quantique, la métrologie quantique et l'imagerie quantique sont tous des exemples de technologies quantiques, où les propriétés de la mécanique quantique, en particulier l'intrication quantique, la superposition quantique et le tunnel quantique, sont importantes.

Radar:

Le radar est un système de détection qui utilise des ondes radio pour déterminer la distance (portée), l'angle ou la vitesse des objets. Il peut être utilisé pour détecter les avions, les navires, les engins spatiaux, les missiles guidés, les véhicules à moteur, les formations météorologiques et le terrain. Un système radar consiste en un émetteur produisant des ondes électromagnétiques dans le domaine radio ou micro-ondes, une antenne émettrice, une antenne réceptrice et un récepteur et processeur pour déterminer les propriétés du ou des objets. Les ondes radio de l'émetteur se reflètent sur l'objet et retournent au récepteur, donnant des informations sur l'emplacement et la vitesse de l'objet.

Identification radiofréquence:

L'identification par radiofréquence ( RFID ) utilise des champs électromagnétiques pour identifier et suivre automatiquement les étiquettes attachées aux objets. Un système RFID se compose d'un minuscule transpondeur radio, d'un récepteur radio et d'un émetteur. Lorsqu'elle est déclenchée par une impulsion d'interrogation électromagnétique provenant d'un lecteur RFID situé à proximité, l'étiquette transmet des données numériques, généralement un numéro d'inventaire d'identification, au lecteur. Ce numéro peut être utilisé pour suivre les marchandises en stock.

Récupération des eaux pluviales:

La collecte des eaux pluviales (RWH) consiste à collecter et à stocker la pluie, plutôt qu'à lui permettre de s'écouler. L'eau de pluie est collectée à partir d'une surface semblable à un toit et redirigée vers un réservoir, une citerne, une fosse profonde, un aquifère ou un réservoir avec percolation, de sorte qu'elle suinte et restaure les eaux souterraines. La rosée et le brouillard peuvent également être recueillis avec des filets ou d'autres outils. La collecte des eaux de pluie diffère de la collecte des eaux pluviales car le ruissellement est collecté sur les toits, plutôt que sur les ruisseaux, les drains, les routes ou toute autre surface terrestre. Ses utilisations comprennent l'arrosage des jardins, le bétail, l'irrigation, l'usage domestique avec un traitement approprié et le chauffage domestique. L'eau récoltée peut également être affectée à un stockage à plus long terme ou à une recharge des eaux souterraines.

Applications de l'aléatoire:

L'aléatoire a de nombreuses utilisations dans la science, l'art, les statistiques, la cryptographie, les jeux, les jeux d'argent et d'autres domaines. Par exemple, l'assignation aléatoire dans des essais contrôlés randomisés aide les scientifiques à tester des hypothèses, et les nombres aléatoires ou pseudo-aléatoires aident les jeux vidéo tels que le vidéo poker.

Batterie rechargeable:

Une batterie rechargeable , une batterie de stockage ou une cellule secondaire , est un type de batterie électrique qui peut être chargée, déchargée dans une charge et rechargée plusieurs fois, par opposition à une batterie jetable ou primaire, qui est fournie entièrement chargée et jetée après utilisation. . Il est composé d'une ou plusieurs cellules électrochimiques. Le terme «accumulateur» est utilisé car il accumule et stocke de l'énergie par une réaction électrochimique réversible. Les batteries rechargeables sont produites dans de nombreuses formes et tailles différentes, allant des piles bouton aux systèmes mégawatts connectés pour stabiliser un réseau de distribution électrique. Plusieurs combinaisons différentes de matériaux d'électrodes et d'électrolytes sont utilisées, notamment le plomb-acide, le zinc-air, le nickel-cadmium (NiCd), le nickel-hydrure métallique (NiMH), le lithium-ion (Li-ion), le lithium fer phosphate (LiFePO4) et polymère lithium-ion.

Relation réccurente:

En mathématiques, une relation de récurrence est une équation qui définit de manière récursive une séquence ou un tableau multidimensionnel de valeurs, une fois qu'un ou plusieurs termes initiaux sont donnés; chaque autre terme de la séquence ou du tableau est défini en fonction des termes précédents.

Réseau neuronal récurrent:

Un réseau neuronal récurrent ( RNN ) est une classe de réseaux neuronaux artificiels où les connexions entre les nœuds forment un graphe dirigé le long d'une séquence temporelle. Cela lui permet de présenter un comportement dynamique temporel. Dérivés de réseaux de neurones à action directe, les RNN peuvent utiliser leur état interne (mémoire) pour traiter des séquences d'entrées de longueur variable. Cela les rend applicables à des tâches telles que la reconnaissance d'écriture manuscrite connectée non segmentée ou la reconnaissance vocale.

Robotique:

La robotique est un domaine interdisciplinaire qui intègre l'informatique et l'ingénierie. La robotique implique la conception, la construction, l'exploitation et l'utilisation de robots. Le but de la robotique est de concevoir des machines capables d'aider et d'assister les humains. La robotique intègre les domaines du génie mécanique, du génie électrique, du génie de l'information, de la mécatronique, de l'électronique, de la bio-ingénierie, du génie informatique, du génie de contrôle, du génie logiciel, des mathématiques, entre autres.

Système basé sur des règles:

En informatique, un système basé sur des règles est utilisé pour stocker et manipuler les connaissances afin d'interpréter les informations de manière utile. Il est souvent utilisé dans les applications et la recherche en intelligence artificielle.

Modélisation scientifique:

La modélisation scientifique est une activité scientifique dont le but est de rendre une partie ou une caractéristique particulière du monde plus facile à comprendre, définir, quantifier, visualiser ou simuler en la référençant à des connaissances existantes et généralement acceptées. Cela nécessite de sélectionner et d'identifier les aspects pertinents d'une situation dans le monde réel, puis d'utiliser différents types de modèles pour différents objectifs, tels que des modèles conceptuels pour mieux comprendre, des modèles opérationnels à opérationnaliser, des modèles mathématiques à quantifier et des modèles graphiques pour visualiser le sujet. .

Algorithme de recherche:

En informatique, un algorithme de recherche est un algorithme qui résout un problème de recherche. Les algorithmes de recherche fonctionnent pour récupérer des informations stockées dans une structure de données, ou calculées dans l'espace de recherche d'un domaine de problème, avec des valeurs discrètes ou continues.

Analyse sémantique:

L'analyse sémantique , également appelée relation sémantique , est l'utilisation d'ontologies pour analyser le contenu des ressources Web. Ce domaine de recherche combine l'analyse de texte et les technologies du Web sémantique comme RDF. L'analyse sémantique mesure la relation entre différents concepts ontologiques.

Compression sémantique:

Dans le traitement du langage naturel, la compression sémantique est un processus de compactage d'un lexique utilisé pour construire un document textuel en réduisant l'hétérogénéité du langage, tout en conservant la sémantique du texte. En conséquence, les mêmes idées peuvent être représentées en utilisant un plus petit ensemble de mots.

Modèle de données sémantique:

Le modèle de données sémantique (SDM) est une description de base de données sémantique de haut niveau et un formalisme structurant pour les bases de données. Ce modèle de base de données est conçu pour saisir davantage la signification d'un environnement d'application que ce n'est possible avec les modèles de base de données contemporains. Une spécification SDM décrit une base de données en termes de types d'entités qui existent dans l'environnement d'application, les classifications et regroupements de ces entités et les interconnexions structurelles entre elles. SDM fournit une collection de primitives de modélisation de haut niveau pour capturer la sémantique d'un environnement d'application. En intégrant des informations dérivées dans une spécification structurelle de base de données, SDM permet de visualiser les mêmes informations de plusieurs manières; cela permet de répondre directement à la variété des besoins et des exigences de traitement généralement présents dans les applications de base de données. La conception du présent SDM est basée sur notre expérience dans l'utilisation d'une version préliminaire de celui-ci. SDM est conçu pour améliorer l'efficacité et la convivialité des systèmes de bases de données. Une description de base de données SDM peut servir de spécification formelle et d'outil de documentation pour une base de données; il peut fournir une base pour prendre en charge une variété de puissantes fonctionnalités d'interface utilisateur, il peut servir de modèle de base de données conceptuel dans le processus de conception de base de données; et, il peut être utilisé comme modèle de base de données pour un nouveau type de système de gestion de base de données.

Intégration sémantique:

L'intégration sémantique est le processus d'interrelation d'informations provenant de diverses sources, par exemple des calendriers et des listes de tâches, des archives de courrier électronique, des informations de présence, des documents de toutes sortes, des contacts, des résultats de recherche et la pertinence publicitaire et marketing qui en dérive. À cet égard, la sémantique se concentre sur l'organisation et l'action sur l'information en agissant comme un intermédiaire entre des sources de données hétérogènes, qui peuvent entrer en conflit non seulement par la structure mais aussi par le contexte ou la valeur.

Similitude sémantique:

La similitude sémantique est une métrique définie sur un ensemble de documents ou de termes, où l'idée de distance entre les éléments est basée sur la ressemblance de leur signification ou de leur contenu sémantique par opposition à la similitude lexicographique. Ce sont des outils mathématiques utilisés pour estimer la force de la relation sémantique entre des unités de langage, des concepts ou des instances, à travers une description numérique obtenue en fonction de la comparaison d'informations soutenant leur signification ou décrivant leur nature. Le terme similitude sémantique est souvent confondu avec la relation sémantique. La relation sémantique comprend toute relation entre deux termes, tandis que la similitude sémantique inclut uniquement les relations «est un». Par exemple, «voiture» est similaire à «bus», mais est également liée à «route» et «conduite».

Applications de l'analyse de sensibilité en épidémiologie:

L'analyse de sensibilité étudie la relation entre l'incertitude dans un modèle basé sur l'inférence et les incertitudes dans les hypothèses du modèle. L'analyse de sensibilité peut jouer un rôle important en épidémiologie, par exemple pour évaluer l'influence du facteur de confusion non mesuré sur les conclusions causales d'une étude. Il est également important dans toutes les études de modélisation mathématique des épidémies.

Applications de l'analyse de sensibilité aux entreprises:

L'analyse de sensibilité peut être utilement appliquée à un problème commercial, permettant l'identification des variables qui peuvent influencer une décision commerciale, comme par exemple un investissement.

Applications de l'analyse de sensibilité aux sciences de l'environnement:

L'analyse de sensibilité étudie la relation entre la sortie d'un modèle et ses variables d'entrée ou hypothèses. Historiquement, la nécessité d'un rôle d'analyse de sensibilité dans la modélisation et de nombreuses applications de l'analyse de sensibilité sont issues des sciences de l'environnement et de l'écologie.

Applications de l'analyse de sensibilité à l'étalonnage de modèles:

L'analyse de sensibilité a des applications importantes dans l' étalonnage de modèles .

Applications de l'analyse de sensibilité à la prise de décision multicritères:

Une analyse de sensibilité peut révéler des aperçus surprenants dans les études de prise de décision multicritères (MCDM) visant à sélectionner la meilleure alternative parmi un certain nombre d'alternatives concurrentes.

Théorie des ensembles:

La théorie des ensembles est la branche de la logique mathématique qui étudie les ensembles, qui peuvent être décrits de manière informelle comme des collections d'objets. Bien que des objets de toute sorte puissent être rassemblés dans un ensemble, la théorie des ensembles, en tant que branche des mathématiques, s'intéresse principalement à ceux qui sont pertinents pour les mathématiques dans leur ensemble.

Problème de chemin le plus court:

Dans la théorie des graphes, le problème du chemin le plus court est le problème de trouver un chemin entre deux sommets dans un graphe de telle sorte que la somme des poids de ses arêtes constitutives soit minimisée.

Théorie cognitive sociale:

La théorie sociale cognitive ( SCT ), utilisée en psychologie, en éducation et en communication, soutient que certaines parties de l'acquisition de connaissances d'un individu peuvent être directement liées à l'observation des autres dans le contexte des interactions sociales, des expériences et des influences extérieures des médias. Cette théorie a été avancée par Albert Bandura comme une extension de sa théorie de l'apprentissage social. La théorie stipule que lorsque les gens observent un modèle exécutant un comportement et les conséquences de ce comportement, ils se souviennent de la séquence des événements et utilisent ces informations pour guider les comportements ultérieurs. L'observation d'un modèle peut également inciter le spectateur à adopter un comportement qu'il a déjà appris. En d'autres termes, les gens n'apprennent pas de nouveaux comportements uniquement en les essayant et en réussissant ou en échouant, mais plutôt, la survie de l'humanité dépend de la réplication des actions des autres. Selon que les gens sont récompensés ou punis pour leur comportement et le résultat du comportement, l'observateur peut choisir de reproduire le comportement modélisé. Media fournit des modèles pour un large éventail de personnes dans de nombreux environnements environnementaux différents.

Théorie de l'apprentissage social:

La théorie de l'apprentissage social est une théorie du processus d'apprentissage et du comportement social qui propose que de nouveaux comportements puissent être acquis en observant et en imitant les autres. Il déclare que l'apprentissage est un processus cognitif qui se déroule dans un contexte social et peut se produire uniquement par observation ou instruction directe, même en l'absence de reproduction motrice ou de renforcement direct. En plus de l'observation du comportement, l'apprentissage passe également par l'observation des récompenses et des punitions, un processus connu sous le nom de renforcement par procuration. Lorsqu'un comportement particulier est régulièrement récompensé, il persistera très probablement; à l'inverse, si un comportement particulier est constamment puni, il s'abstiendra très probablement. La théorie se développe sur les théories comportementales traditionnelles, dans lesquelles le comportement est régi uniquement par des renforcements, en mettant l'accent sur les rôles importants de divers processus internes chez l'individu apprenant.

Aperçu de l'énergie solaire:

Énergie solaire - lumière rayonnante et chaleur du soleil. Il a été exploité par les humains depuis l'Antiquité en utilisant une gamme de technologies en constante évolution. Les technologies de l'énergie solaire comprennent le chauffage solaire, l'énergie solaire photovoltaïque, l'électricité solaire thermique et l'architecture solaire, qui peuvent apporter une contribution considérable à la résolution de certains des problèmes les plus urgents auxquels le monde est aujourd'hui confronté.

Panneau solaire:

Un panneau solaire, ou module photo-voltaïque (PV) , est un assemblage de cellules photo-voltaïques montées dans un cadre pour l'installation. Les panneaux solaires utilisent la lumière du soleil comme source d'énergie et génèrent de l'électricité en courant continu. Un ensemble de modules PV est appelé un panneau PV, et un système de panneaux est un tableau. Les réseaux d'un système photovoltaïque fournissent de l'électricité solaire aux équipements électriques.

Reconnaissance de la parole:

La reconnaissance vocale est un sous-domaine interdisciplinaire de l'informatique et de la linguistique computationnelle qui développe des méthodologies et des technologies permettant la reconnaissance et la traduction de la langue parlée en texte par des ordinateurs. Il est également connu sous le nom de reconnaissance automatique de la parole ( ASR ), de reconnaissance vocale par ordinateur ou de parole en texte ( STT ). Il intègre des connaissances et des recherches dans les domaines de l'informatique, de la linguistique et de l'ingénierie informatique.

Synthèse de discours:

La synthèse vocale est la production artificielle de la parole humaine. Un système informatique utilisé à cet effet est appelé ordinateur vocal ou synthétiseur vocal et peut être implémenté dans des produits logiciels ou matériels. Un système de synthèse vocale ( TTS ) convertit un texte en langage normal en parole; d'autres systèmes rendent des représentations linguistiques symboliques comme des transcriptions phonétiques dans la parole.

Classification statistique:

En statistique, la classification est le problème de l'identification à laquelle d'un ensemble de catégories (sous-populations) appartient une observation. Des exemples sont l'affectation d'un e-mail donné à la classe «spam» ou «non-spam», et l'attribution d'un diagnostic à un patient donné en fonction des caractéristiques observées du patient.

Échantillonnage (statistiques):

Dans les statistiques, l'assurance qualité et la méthodologie d'enquête, l' échantillonnage est la sélection d'un sous-ensemble d'individus au sein d'une population statistique pour estimer les caractéristiques de l'ensemble de la population. Les statisticiens tentent de faire en sorte que les échantillons représentent la population en question. Deux avantages de l'échantillonnage sont un coût moindre et une collecte de données plus rapide que la mesure de l'ensemble de la population.

Sémantique statistique:

En linguistique, la sémantique statistique applique les méthodes statistiques au problème de la détermination du sens des mots ou des phrases, idéalement par un apprentissage non supervisé, avec un degré de précision au moins suffisant aux fins de la recherche d'informations.

Statistiques:

La statistique est la discipline qui concerne la collecte, l'organisation, l'analyse, l'interprétation et la présentation des données. En appliquant les statistiques à un problème scientifique, industriel ou social, il est classique de commencer par une population statistique ou un modèle statistique à étudier. Les populations peuvent être divers groupes de personnes ou d'objets tels que «toutes les personnes vivant dans un pays» ou «chaque atome composant un cristal». Les statistiques traitent de tous les aspects des données, y compris la planification de la collecte de données en termes de conception d'enquêtes et d'expériences.

Arborescence des suffixes:

En informatique, un arbre de suffixes est un trie compressé contenant tous les suffixes du texte donné comme leurs clés et leurs positions dans le texte comme leurs valeurs. Les arborescences de suffixes permettent des implémentations particulièrement rapides de nombreuses opérations de chaînes importantes.

Enseignement supervisé:

L'apprentissage supervisé (SL) est la tâche d'apprentissage automatique consistant à apprendre une fonction qui mappe une entrée à une sortie basée sur des exemples de paires d'entrée-sortie. Il déduit une fonction à partir de données d'apprentissage étiquetées constituées d'un ensemble d' exemples d'entraînement . Dans l'apprentissage supervisé, chaque exemple est une paire constituée d'un objet d'entrée et d'une valeur de sortie souhaitée. Un algorithme d'apprentissage supervisé analyse les données d'apprentissage et produit une fonction déduite, qui peut être utilisée pour cartographier de nouveaux exemples. Un scénario optimal permettra à l'algorithme de déterminer correctement les étiquettes de classe pour les instances invisibles. Cela nécessite que l'algorithme d'apprentissage généralise les données d'entraînement à des situations invisibles d'une manière «raisonnable». Cette qualité statistique d'un algorithme est mesurée par ce que l'on appelle l'erreur de généralisation.

Machine à vecteur de support:

Dans l'apprentissage automatique, les machines à vecteurs de support sont des modèles d'apprentissage supervisé avec des algorithmes d'apprentissage associés qui analysent les données à des fins de classification et d'analyse de régression. Développés aux laboratoires AT&T Bell par Vladimir Vapnik avec des collègues, les SVM sont l'une des méthodes de prédiction les plus robustes, étant basées sur des cadres d'apprentissage statistique ou la théorie de la CV proposée par Vapnik et Chervonenkis (1974). Étant donné un ensemble d'exemples d'apprentissage, chacun marqué comme appartenant à l'une des deux catégories, un algorithme d'apprentissage SVM construit un modèle qui attribue de nouveaux exemples à une catégorie ou à l'autre, ce qui en fait un classificateur linéaire binaire non probabiliste. SVM mappe des exemples de formation à des points dans l'espace afin de maximiser la largeur de l'écart entre les deux catégories. Les nouveaux exemples sont ensuite mappés dans ce même espace et supposés appartenir à une catégorie en fonction de quel côté de l'écart ils se situent.

Intelligence en essaim:

L'intelligence en essaim ( SI ) est le comportement collectif de systèmes décentralisés, auto-organisés, naturels ou artificiels. Le concept est utilisé dans les travaux sur l'intelligence artificielle. L'expression a été introduite par Gerardo Beni et Jing Wang en 1989, dans le contexte des systèmes robotiques cellulaires.

La biologie de synthèse:

La biologie synthétique ( SynBio ) est un domaine de recherche multidisciplinaire qui cherche à créer de nouvelles pièces, dispositifs et systèmes biologiques, ou à reconcevoir des systèmes déjà présents dans la nature.

Exploration de texte:

L'exploration de texte , également appelée exploration de données de texte , similaire à l' analyse de texte , est le processus de dérivation d'informations de haute qualité à partir de texte. Il s'agit de «la découverte par ordinateur de nouvelles informations jusque-là inconnues, en extrayant automatiquement des informations à partir de différentes ressources écrites». Les ressources écrites peuvent inclure des sites Web, des livres, des courriels, des critiques et des articles. Des informations de haute qualité sont généralement obtenues en concevant des modèles et des tendances par des moyens tels que l'apprentissage de modèles statistiques. Selon Hotho et al. (2005), nous pouvons différer de trois perspectives différentes de l'exploration de texte: l'extraction d'informations, l'exploration de données et un processus KDD. L'exploration de texte implique généralement le processus de structuration du texte d'entrée, de dérivation de modèles dans les données structurées, et enfin d'évaluation et d'interprétation de la sortie. La «haute qualité» dans l'exploration de texte fait généralement référence à une combinaison de pertinence, de nouveauté et d'intérêt. Les tâches typiques d'exploration de texte incluent la catégorisation de texte, le regroupement de texte, l'extraction de concept / entité, la production de taxonomies granulaires, l'analyse des sentiments, la synthèse de documents et la modélisation de relations d'entité.

Normalisation du texte:

La normalisation du texte est le processus de transformation du texte en une seule forme canonique qu'il n'aurait peut-être pas eu auparavant. Normaliser le texte avant de le stocker ou de le traiter permet de séparer les problèmes, car l'entrée est garantie d'être cohérente avant que les opérations ne soient effectuées sur celui-ci. La normalisation de texte nécessite de savoir quel type de texte doit être normalisé et comment il doit être traité par la suite; il n'y a pas de procédure de normalisation polyvalente.

Applications du moteur Stirling:

Les applications de la gamme de moteurs Stirling vont de la propulsion mécanique au chauffage et au refroidissement en passant par les systèmes de génération électrique. Un moteur Stirling est un moteur thermique fonctionnant par compression cyclique et détente d'air ou d'un autre gaz, le "fluide de travail", à différents niveaux de température de sorte qu'il y a une conversion nette de la chaleur en travail mécanique. Le moteur thermique à cycle Stirling peut également être entraîné en marche arrière, en utilisant une entrée d'énergie mécanique pour entraîner le transfert de chaleur dans une direction inverse.

Applications du calcul des variations:

Les applications du calcul des variations comprennent:

  • Solutions au problème de la brachistochrone, du problème de la tautochrone, du problème de la caténaire et du problème de résistance minimale de Newton;
  • Trouver des surfaces minimales d'une frontière donnée, ou résoudre le problème de Plateau;
  • Mécanique analytique, ou reformulations des lois du mouvement de Newton, notamment la mécanique lagrangienne et hamiltonienne;
  • Optique géométrique, en particulier optique lagrangienne et hamiltonienne;
  • Méthode variationnelle, une façon de trouver des approximations de l'état propre ou de l'état fondamental d'énergie la plus basse, et certains états excités;
  • Méthodes bayésiennes variationnelles, une famille de techniques pour approximer les intégrales insolubles issues de l'inférence bayésienne et de l'apprentissage automatique;
  • Méthodes variationnelles en relativité générale, une famille de techniques utilisant le calcul des variations pour résoudre des problèmes dans la théorie de la relativité générale d'Einstein;
  • La méthode des éléments finis est une méthode variationnelle pour trouver des solutions numériques aux problèmes de valeurs limites dans les équations différentielles;
Transformée de Fourier Rapide:

Une transformée de Fourier rapide ( FFT ) est un algorithme qui calcule la transformée de Fourier discrète (DFT) d'une séquence, ou son inverse (IDFT). L'analyse de Fourier convertit un signal de son domaine d'origine en une représentation dans le domaine fréquentiel et vice versa. Le DFT est obtenu en décomposant une séquence de valeurs en composantes de différentes fréquences. Cette opération est utile dans de nombreux domaines, mais la calculer directement à partir de la définition est souvent trop lente pour être pratique. Une FFT calcule rapidement ces transformations en factorisant la matrice DFT en un produit de facteurs clairsemés. En conséquence, il parvient à réduire la complexité du calcul de la DFT à partir de , qui survient si l'on applique simplement la définition de DFT, à , où est la taille des données. La différence de vitesse peut être énorme, en particulier pour les longs ensembles de données où N peut être en milliers ou en millions. En présence d'une erreur d'arrondi, de nombreux algorithmes FFT sont beaucoup plus précis que l'évaluation directe ou indirecte de la définition DFT. Il existe de nombreux algorithmes FFT différents basés sur un large éventail de théories publiées, de la simple arithmétique des nombres complexes à la théorie des groupes et à la théorie des nombres.

Équation de chaleur:

En mathématiques et en physique, l' équation de la chaleur est une certaine équation différentielle partielle. Les solutions de l'équation de la chaleur sont parfois appelées fonctions caloriques . La théorie de l'équation de la chaleur a été développée pour la première fois par Joseph Fourier en 1822 dans le but de modéliser la façon dont une quantité telle que la chaleur se diffuse à travers une région donnée.

Arbre couvrant minimum:

Un arbre couvrant minimum ( MST ) ou un arbre couvrant à poids minimum est un sous-ensemble des arêtes d'un graphe non orienté, pondéré par les bords, qui relie tous les sommets ensemble, sans aucun cycle et avec le poids total minimum possible des arêtes. Autrement dit, il s'agit d'un arbre couvrant dont la somme des poids d'arête est aussi petite que possible. Plus généralement, tout graphe non orienté pondéré par les bords a une forêt couvrant minimum , qui est une union des arbres couvrant minimum pour ses composants connectés.

Titane:

Le titane est un élément chimique avec le symbole Ti et le numéro atomique 22. Son poids atomique est de 47,867 mesuré en daltons. C'est un métal de transition brillant avec une couleur argentée, une faible densité et une résistance élevée. Le titane résiste à la corrosion de l'eau de mer, de l'aqua regia et du chlore.

Topologie:

En mathématiques, la topologie concerne les propriétés d'un objet géométrique qui sont préservées sous des déformations continues, telles que l'étirement, la torsion, le froissement et la flexion; c'est-à-dire sans fermer les trous, ouvrir les trous, se déchirer, se coller ou passer à travers lui-même.

Arbre (structure de données):

En informatique, un arbre est un type de données abstrait largement utilisé qui simule une structure arborescente hiérarchique, avec une valeur racine et des sous-arbres d'enfants avec un nœud parent, représentés comme un ensemble de nœuds liés.

Traversée d'arbre:

En informatique, la traversée d'arbre est une forme de traversée de graphe et fait référence au processus de visite de chaque nœud dans une structure de données arborescente, exactement une fois. Ces traversées sont classées selon l'ordre dans lequel les nœuds sont visités. Les algorithmes suivants sont décrits pour un arbre binaire, mais ils peuvent également être généralisés à d'autres arbres.

Utilisations de la trigonométrie:

Parmi le public profane de non-mathématiciens et de non-scientifiques, la trigonométrie est connue principalement pour son application aux problèmes de mesure, mais elle est aussi souvent utilisée de manière beaucoup plus subtile, comme sa place dans la théorie de la musique; d'autres utilisations encore sont plus techniques, comme dans la théorie des nombres. Les sujets mathématiques des séries de Fourier et des transformées de Fourier reposent fortement sur la connaissance des fonctions trigonométriques et trouvent une application dans un certain nombre de domaines, y compris les statistiques.

Liste des applications de véhicules aériens sans pilote:

Les véhicules aériens sans pilote sont utilisés dans le monde entier pour des applications civiles, commerciales et militaires. En fait, Drone Industry Insights a identifié «237 façons dont les drones révolutionnent les affaires» et a publié un rapport de 151 pages comprenant 237 applications et 37 études de cas réelles dans 15 secteurs, notamment l'agriculture, l'énergie, la construction et les mines.

Calcul vectoriel:

Le calcul vectoriel , ou analyse vectorielle , concerne la différenciation et l'intégration des champs vectoriels, principalement dans l'espace euclidien tridimensionnel Le terme «calcul vectoriel» est parfois utilisé comme synonyme du sujet plus large du calcul multivariable, qui englobe le calcul vectoriel ainsi que la différenciation partielle et l'intégration multiple. Le calcul vectoriel joue un rôle important dans la géométrie différentielle et dans l'étude des équations aux dérivées partielles. Il est largement utilisé en physique et en ingénierie, en particulier dans la description des champs électromagnétiques, des champs gravitationnels et de l'écoulement des fluides.

Le calcul vectoriel , ou analyse vectorielle , concerne la différenciation et l'intégration des champs vectoriels, principalement dans l'espace euclidien tridimensionnel

Không có nhận xét nào:

Đăng nhận xét