Thứ Hai, 30 tháng 8, 2021

Trading strategy index, Trading strategy index, Algorithmic inference

Indice de stratégie de trading :

Les indices de stratégie sont des indices qui suivent les performances d'une stratégie de trading algorithmique. L'algorithme spécifie clairement et de manière transparente toutes les actions qui doivent être entreprises. Voici des exemples d'algorithmes sur lesquels les stratégies peuvent être basées.

  1. Stratégie de trading de paires . Cette stratégie examine des paires d'instruments qui sont connus pour être statistiquement corrélés. Par exemple, considérons Shell et Exxon. Les deux sont des stocks de pétrole et sont susceptibles d'évoluer ensemble. La connaissance de cette tendance crée une opportunité de profit, car dans les occasions où ces actions rompent la corrélation pendant un instant, le trader peut en acheter une et vendre à découvert l'autre avec une prime.
  2. Stratégie de courbe des Fed funds Cette stratégie prend en compte la forme de la courbe en fonction des actions de la Fed. Dans cette stratégie, on mise sur une pentification ou un aplatissement, selon que la Réserve fédérale a abaissé le taux de référence ou l'a relevé. Ceci est basé sur l'idée reçue selon laquelle la courbe s'accentue lorsqu'on s'attend à ce que le taux soit réduit, et vice versa.
  3. Volatilité implicite contre volatilité réalisée . Sur un certain nombre de marchés tels que les matières premières et les taux, la volatilité implicite, telle qu'implique par les prix de chevauchement, est supérieure à la volatilité réalisée du contrat à terme sous-jacent. Une façon d'"exploiter" cela est de vendre un cheval à échéance courte et de le couvrir en delta jusqu'à ce qu'il soit vivant. La stratégie est rentable si à l'échéance, la somme de la prime reçue, la valeur finale (négative) du straddle et la valeur (positive/négative) des forwards est supérieure à zéro. Une variante de cette solution, et une solution plus courante en actions, consiste à vendre un swap de variance à un mois ou à trois mois - généralement sur l'indice Eurostoxx 50E ou S&P500 - qui rapporte une performance positive si la volatilité implicite est supérieure à la volatilité réalisée. à l'expiration ; dans ce cas, il n'est pas nécessaire de couvrir en delta les mouvements sous-jacents.
Indice de stratégie de trading :

Les indices de stratégie sont des indices qui suivent les performances d'une stratégie de trading algorithmique. L'algorithme spécifie clairement et de manière transparente toutes les actions qui doivent être entreprises. Voici des exemples d'algorithmes sur lesquels les stratégies peuvent être basées.

  1. Stratégie de trading de paires . Cette stratégie examine des paires d'instruments qui sont connus pour être statistiquement corrélés. Par exemple, considérons Shell et Exxon. Les deux sont des stocks de pétrole et sont susceptibles d'évoluer ensemble. La connaissance de cette tendance crée une opportunité de profit, car dans les occasions où ces actions rompent la corrélation pendant un instant, le trader peut en acheter une et vendre à découvert l'autre avec une prime.
  2. Stratégie de courbe des Fed funds Cette stratégie prend en compte la forme de la courbe en fonction des actions de la Fed. Dans cette stratégie, on mise sur une pentification ou un aplatissement, selon que la Réserve fédérale a abaissé le taux de référence ou l'a relevé. Ceci est basé sur l'idée reçue selon laquelle la courbe s'accentue lorsqu'on s'attend à ce que le taux soit réduit, et vice versa.
  3. Volatilité implicite contre volatilité réalisée . Sur un certain nombre de marchés tels que les matières premières et les taux, la volatilité implicite, telle qu'implique par les prix de chevauchement, est supérieure à la volatilité réalisée du contrat à terme sous-jacent. Une façon d'"exploiter" cela est de vendre un cheval à échéance courte et de le couvrir en delta jusqu'à ce qu'il soit vivant. La stratégie est rentable si à l'échéance, la somme de la prime reçue, la valeur finale (négative) du straddle et la valeur (positive/négative) des forwards est supérieure à zéro. Une variante de cette solution, et une solution plus courante en actions, consiste à vendre un swap de variance à un mois ou à trois mois - généralement sur l'indice Eurostoxx 50E ou S&P500 - qui rapporte une performance positive si la volatilité implicite est supérieure à la volatilité réalisée. à l'expiration ; dans ce cas, il n'est pas nécessaire de couvrir en delta les mouvements sous-jacents.
Inférence algorithmique :

L'inférence algorithmique rassemble de nouveaux développements dans les méthodes d'inférence statistique rendues possibles par les puissants dispositifs informatiques largement disponibles pour tout analyste de données. Les pierres angulaires dans ce domaine sont la théorie de l'apprentissage computationnel, l'informatique granulaire, la bioinformatique et, il y a longtemps, la probabilité structurelle. pour produire des résultats fiables. Cela déplace l'intérêt des mathématiciens de l'étude des lois de distribution vers les propriétés fonctionnelles des statistiques, et l'intérêt des informaticiens des algorithmes de traitement des données vers les informations qu'ils traitent.

Théorie algorithmique de l'information :

La théorie algorithmique de l'information (AIT) est une branche de l'informatique théorique qui s'intéresse à la relation entre le calcul et l'information d'objets générés par calcul, tels que des chaînes ou toute autre structure de données. En d'autres termes, il est montré dans la théorie algorithmique de l'information que l'incompressibilité computationnelle « imite » les relations ou les inégalités trouvées dans la théorie de l'information. Selon Gregory Chaitin, c'est "le résultat de mettre la théorie de l'information de Shannon et la théorie de la calculabilité de Turing dans un shaker et de secouer vigoureusement".

Ligue de justice algorithmique :

L' Algorithmic Justice League (AJL) est une organisation de défense des droits numériques basée à Cambridge, dans le Massachusetts. Fondée par l'informaticienne Joy Buolamwini en 2016, AJL vise à sensibiliser aux implications sociales de l'intelligence artificielle à travers l'art et la recherche. Il a été présenté dans le documentaire 2020 Coded Bias.

ALGOL :

ALGOL est une famille de langages de programmation informatique impératifs initialement développés en 1958. ALGOL a fortement influencé de nombreux autres langages et a été la méthode standard de description d'algorithmes utilisée par l'Association for Computing Machinery (ACM) dans les manuels et les sources académiques pendant plus de trente ans.

ALGOL 60 :

ALGOL 60 est un membre de la famille ALGOL de langages de programmation informatique. Il fait suite à ALGOL 58 qui avait introduit des blocs de code et les paires de begin et de end pour les délimiter, représentant une avancée clé dans l'essor de la programmation structurée. ALGOL 60 a été le premier langage à implémenter des définitions de fonctions imbriquées avec une portée lexicale. Il a donné naissance à de nombreux autres langages de programmation, notamment CPL, Simula, BCPL, B, Pascal et C. Pratiquement tous les ordinateurs de l'époque disposaient d'un langage de programmation système basé sur les concepts ALGOL 60.

ALGOL 68 :

ALGOL 68 est un langage de programmation impératif qui a été conçu comme un successeur du langage de programmation ALGOL 60, conçu dans le but d'un champ d'application beaucoup plus large et d'une syntaxe et d'une sémantique plus rigoureusement définies.

Lemme local algorithmique de Lovász :

En informatique théorique, le lemme local algorithmique de Lovász donne une manière algorithmique de construire des objets qui obéissent à un système de contraintes à dépendance limitée.

Lemme local algorithmique de Lovász :

En informatique théorique, le lemme local algorithmique de Lovász donne une manière algorithmique de construire des objets qui obéissent à un système de contraintes à dépendance limitée.

Lemme local algorithmique de Lovász :

En informatique théorique, le lemme local algorithmique de Lovász donne une manière algorithmique de construire des objets qui obéissent à un système de contraintes à dépendance limitée.

Gestion algorithmique :

La gestion algorithmique est un terme utilisé pour décrire certaines pratiques de gestion du travail dans l'économie numérique contemporaine. Dans les usages scientifiques, le terme a été initialement inventé en 2015 par Min Kyung Lee, Daniel Kusbit, Evan Metsky et Laura Dabbish pour décrire le rôle de gestion joué par les algorithmes sur les plateformes Uber et Lyft, mais a depuis été repris par d'autres chercheurs pour décrivent plus généralement les caractéristiques managériales et organisationnelles des économies de plateforme.

Conception du mécanisme algorithmique :

La conception de mécanismes algorithmiques ( AMD ) se situe à l'intersection de la théorie des jeux économiques, de l'optimisation et de l'informatique. Le problème prototype dans la conception de mécanismes est de concevoir un système pour plusieurs participants intéressés, de telle sorte que les actions intéressées des participants à l'équilibre conduisent à de bonnes performances du système. Les objectifs typiques étudiés comprennent la maximisation des revenus et la maximisation du bien-être social. La conception de mécanismes algorithmiques diffère de la conception de mécanismes économiques classiques à plusieurs égards. Il utilise généralement les outils analytiques de l'informatique théorique, tels que l'analyse du pire des cas et les ratios d'approximation, contrairement à la conception de mécanismes classiques en économie qui fait souvent des hypothèses de distribution sur les agents. Il considère également que les contraintes de calcul sont d'une importance centrale : les mécanismes qui ne peuvent pas être efficacement mis en œuvre en temps polynomial ne sont pas considérés comme des solutions viables à un problème de conception de mécanisme. Ceci exclut souvent, par exemple, le mécanisme économique classique, la vente aux enchères de Vickrey-Clarke-Groves.

Symposium sur la théorie algorithmique des nombres :

Algorithmic Number Theory Symposium (ANTS) est une conférence universitaire biennale, tenue pour la première fois à Cornell en 1994, constituant un forum international pour la présentation de nouvelles recherches en théorie computationnelle des nombres. Ils sont consacrés aux aspects algorithmiques de la théorie des nombres, y compris la théorie des nombres élémentaires, la théorie algébrique des nombres, la théorie analytique des nombres, la géométrie des nombres, la géométrie arithmétique, les corps finis et la cryptographie.

Casse-tête algorithmique :

Algorithmic Puzzles est un livre de puzzles basé sur la pensée informatique. Il a été écrit par les informaticiens Anany et Maria Levitin, et publié en 2011 par Oxford University Press.

Régulation algorithmique :

La régulation algorithmique peut désigner :

  • Gouvernement par algorithme, utilisation des algorithmes dans le gouvernement
  • Régulation des algorithmes, règles et lois pour les algorithmes
Squelette algorithmique :

En informatique, les squelettes algorithmiques , ou modèles de parallélisme , sont un modèle de programmation parallèle de haut niveau pour le calcul parallèle et distribué.

Machine à états algorithmique :

La méthode algorithmic state machine ( ASM ) est une méthode de conception de machines à états finis (FSM) développée à l'origine par Thomas E. Osborne à l'université de Californie à Berkeley (UCB) depuis 1960, introduite et mise en œuvre à Hewlett-Packard en 1968, formalisé et étendu depuis 1967 et écrit par Christopher R. Clare depuis 1970. Il est utilisé pour représenter des schémas de circuits intégrés numériques. Le diagramme ASM est comme un diagramme d'état mais plus structuré et donc plus facile à comprendre. Un graphique ASM est une méthode de description des opérations séquentielles d'un système numérique.

Machine à états algorithmique :

La méthode algorithmic state machine ( ASM ) est une méthode de conception de machines à états finis (FSM) développée à l'origine par Thomas E. Osborne à l'université de Californie à Berkeley (UCB) depuis 1960, introduite et mise en œuvre à Hewlett-Packard en 1968, formalisé et étendu depuis 1967 et écrit par Christopher R. Clare depuis 1970. Il est utilisé pour représenter des schémas de circuits intégrés numériques. Le diagramme ASM est comme un diagramme d'état mais plus structuré et donc plus facile à comprendre. Un graphique ASM est une méthode de description des opérations séquentielles d'un système numérique.

Trading algorithmique :

Le trading algorithmique est une méthode d'exécution d'ordres utilisant des instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente de tirer parti de la vitesse et des ressources de calcul des ordinateurs par rapport aux traders humains. Au XXIe siècle, le trading algorithmique gagne du terrain auprès des traders particuliers et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les commerçants humains puissent réagir. Une étude réalisée en 2019 a montré qu'environ 92% des transactions sur le marché Forex étaient effectuées par des algorithmes de trading plutôt que par des humains.

Trading algorithmique :

Le trading algorithmique est une méthode d'exécution d'ordres utilisant des instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente de tirer parti de la vitesse et des ressources de calcul des ordinateurs par rapport aux traders humains. Au XXIe siècle, le trading algorithmique gagne du terrain auprès des traders particuliers et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les commerçants humains puissent réagir. Une étude réalisée en 2019 a montré qu'environ 92% des transactions sur le marché Forex étaient effectuées par des algorithmes de trading plutôt que par des humains.

Trading algorithmique :

Le trading algorithmique est une méthode d'exécution d'ordres utilisant des instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente de tirer parti de la vitesse et des ressources de calcul des ordinateurs par rapport aux traders humains. Au XXIe siècle, le trading algorithmique gagne du terrain auprès des traders particuliers et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les commerçants humains puissent réagir. Une étude réalisée en 2019 a montré qu'environ 92% des transactions sur le marché Forex étaient effectuées par des algorithmes de trading plutôt que par des humains.

Art algorithmique :

L'art algorithmique ou l' art algorithmique est un art, principalement un art visuel, dans lequel la conception est générée par un algorithme. Les artistes algorithmiques sont parfois appelés algoristes .

Biais algorithmique :

Le biais algorithmique décrit des erreurs systématiques et reproductibles dans un système informatique qui créent des résultats injustes, tels que le fait de privilégier un groupe arbitraire d'utilisateurs par rapport à d'autres. Un biais peut apparaître en raison de nombreux facteurs, y compris, mais sans s'y limiter, la conception de l'algorithme ou l'utilisation ou les décisions involontaires ou imprévues relatives à la manière dont les données sont codées, collectées, sélectionnées ou utilisées pour entraîner l'algorithme. Les biais algorithmiques se retrouvent sur toutes les plateformes, y compris, mais sans s'y limiter, les résultats des moteurs de recherche et les plateformes de médias sociaux, et peuvent avoir des impacts allant de violations involontaires de la vie privée au renforcement des préjugés sociaux de race, de sexe, de sexualité et d'ethnicité. L'étude du biais algorithmique s'intéresse surtout aux algorithmes qui reflètent une discrimination « systématique et injuste ». Ce biais n'a été pris en compte que récemment dans des cadres juridiques, tels que le règlement général sur la protection des données de l'Union européenne de 2018.

Complexité algorithmique :

La complexité algorithmique peut faire référence à :

  • En théorie algorithmique de l'information, complexité d'une chaîne particulière par rapport à tous les algorithmes qui la génèrent.
    • Complexité de Solomonoff-Kolmogorov-Chaitin, la mesure de ce type la plus largement utilisée.
  • Dans la théorie de la complexité computationnelle, bien qu'il s'agisse d'un usage non formel du terme, la complexité spatio-temporelle d'un problème particulier en termes de tous les algorithmes qui le résolvent avec des ressources de calcul limitées par une fonction de la taille de l'entrée.
    • Ou il peut se référer à la complexité temps/espace d'un algorithme particulier par rapport à la résolution d'un problème particulier, qui est une notion couramment trouvée dans l'analyse des algorithmes.
Complexité algorithmique :

La complexité algorithmique peut faire référence à :

  • En théorie algorithmique de l'information, complexité d'une chaîne particulière par rapport à tous les algorithmes qui la génèrent.
    • Complexité de Solomonoff-Kolmogorov-Chaitin, la mesure de ce type la plus largement utilisée.
  • Dans la théorie de la complexité computationnelle, bien qu'il s'agisse d'un usage non formel du terme, la complexité spatio-temporelle d'un problème particulier en termes de tous les algorithmes qui le résolvent avec des ressources de calcul limitées par une fonction de la taille de l'entrée.
    • Ou il peut se référer à la complexité temps/espace d'un algorithme particulier par rapport à la résolution d'un problème particulier, qui est une notion couramment trouvée dans l'analyse des algorithmes.
Attaque de complexité algorithmique :

Une attaque de complexité algorithmique est une forme d'attaque informatique qui exploite des cas connus dans lesquels un algorithme utilisé dans un logiciel présentera le pire des cas. Ce type d'attaque peut être utilisé pour réaliser un déni de service.

Complexité de Kolmogorov :

Dans la théorie algorithmique de l'information, la complexité de Kolmogorov d'un objet, tel qu'un morceau de texte, est la longueur d'un programme informatique le plus court qui produit l'objet en sortie. C'est une mesure des ressources de calcul nécessaires pour spécifier l'objet, et est également connue sous le nom de complexité algorithmique , complexité de Solomonoff-Kolmogorov-Chaitin , complexité de la taille du programme , complexité descriptive ou entropie algorithmique . Il porte le nom d'Andrey Kolmogorov, qui a publié pour la première fois sur le sujet en 1963.

Composition algorithmique :

La composition algorithmique est la technique consistant à utiliser des algorithmes pour créer de la musique.

Refroidissement algorithmique :

Le refroidissement algorithmique est une méthode algorithmique de transfert de chaleur de certains qubits à d'autres ou à l'extérieur du système et dans l'environnement, ce qui entraîne un effet de refroidissement. Cette méthode utilise des opérations quantiques régulières sur des ensembles de qubits, et on peut montrer qu'elle peut réussir au-delà de la limite de Shannon sur la compression de données. Le phénomène est le résultat de la connexion entre la thermodynamique et la théorie de l'information.

Décomposition (informatique):

La décomposition en informatique, également connue sous le nom de factorisation , consiste à diviser un problème ou un système complexe en parties plus faciles à concevoir, comprendre, programmer et maintenir.

Conception générative :

La conception générative est un processus de conception itératif qui implique un programme qui générera un certain nombre de sorties répondant à certaines contraintes, et un concepteur qui affinera la région réalisable en sélectionnant une sortie spécifique ou en modifiant les valeurs d'entrée, les plages et la distribution. Le concepteur n'a pas besoin d'être un humain, il peut s'agir d'un programme de test dans un environnement de test ou d'une intelligence artificielle, par exemple un réseau accusatoire génératif. Le concepteur apprend à affiner le programme à chaque itération à mesure que ses objectifs de conception sont mieux définis au fil du temps.

Différenciation automatique :

En mathématiques et en algèbre informatique, la différenciation automatique ( AD ), également appelée différenciation algorithmique , différenciation computationnelle , auto-différenciation , ou simplement autodiff , est un ensemble de techniques permettant d'évaluer la dérivée d'une fonction spécifiée par un programme informatique. AD exploite le fait que chaque programme informatique, aussi compliqué soit-il, exécute une séquence d'opérations arithmétiques élémentaires et de fonctions élémentaires. En appliquant la règle de la chaîne à plusieurs reprises à ces opérations, les dérivées d'ordre arbitraire peuvent être calculées automatiquement, avec précision à la précision de travail, et en utilisant au plus un petit facteur constant plus d'opérations arithmétiques que le programme d'origine.

Biais algorithmique :

Le biais algorithmique décrit des erreurs systématiques et reproductibles dans un système informatique qui créent des résultats injustes, tels que le fait de privilégier un groupe arbitraire d'utilisateurs par rapport à d'autres. Un biais peut apparaître en raison de nombreux facteurs, y compris, mais sans s'y limiter, la conception de l'algorithme ou l'utilisation ou les décisions involontaires ou imprévues relatives à la manière dont les données sont codées, collectées, sélectionnées ou utilisées pour entraîner l'algorithme. Les biais algorithmiques se retrouvent sur toutes les plateformes, y compris, mais sans s'y limiter, les résultats des moteurs de recherche et les plateformes de médias sociaux, et peuvent avoir des impacts allant de violations involontaires de la vie privée au renforcement des préjugés sociaux de race, de sexe, de sexualité et d'ethnicité. L'étude du biais algorithmique s'intéresse surtout aux algorithmes qui reflètent une discrimination « systématique et injuste ». Ce biais n'a été pris en compte que récemment dans des cadres juridiques, tels que le règlement général sur la protection des données de l'Union européenne de 2018.

Efficacité algorithmique :

En informatique, l' efficacité algorithmique est une propriété d'un algorithme qui se rapporte à la quantité de ressources de calcul utilisées par l'algorithme. Un algorithme doit être analysé pour déterminer son utilisation des ressources, et l'efficacité d'un algorithme peut être mesurée en fonction de l'utilisation de différentes ressources. L'efficacité algorithmique peut être considérée comme analogue à la productivité d'ingénierie pour un processus répétitif ou continu.

Entités algorithmiques :

Les entités algorithmiques font référence à des algorithmes autonomes qui fonctionnent sans contrôle ni interférence humaine. Récemment, l'attention s'est portée sur l'idée de l'octroi de la personnalité juridique aux entités algorithmiques. Le professeur Shawn Bayern et le professeur Lynn M. LoPucki ont popularisé à travers leurs articles l'idée d'avoir des entités algorithmiques qui obtiennent la personnalité juridique et les droits et obligations qui l'accompagnent.

Complexité de Kolmogorov :

Dans la théorie algorithmique de l'information, la complexité de Kolmogorov d'un objet, tel qu'un morceau de texte, est la longueur d'un programme informatique le plus court qui produit l'objet en sortie. C'est une mesure des ressources de calcul nécessaires pour spécifier l'objet, et est également connue sous le nom de complexité algorithmique , complexité de Solomonoff-Kolmogorov-Chaitin , complexité de la taille du programme , complexité descriptive ou entropie algorithmique . Il porte le nom d'Andrey Kolmogorov, qui a publié pour la première fois sur le sujet en 1963.

Biais algorithmique :

Le biais algorithmique décrit des erreurs systématiques et reproductibles dans un système informatique qui créent des résultats injustes, tels que le fait de privilégier un groupe arbitraire d'utilisateurs par rapport à d'autres. Un biais peut apparaître en raison de nombreux facteurs, y compris, mais sans s'y limiter, la conception de l'algorithme ou l'utilisation ou les décisions involontaires ou imprévues relatives à la manière dont les données sont codées, collectées, sélectionnées ou utilisées pour entraîner l'algorithme. Les biais algorithmiques se retrouvent sur toutes les plateformes, y compris, mais sans s'y limiter, les résultats des moteurs de recherche et les plateformes de médias sociaux, et peuvent avoir des impacts allant de violations involontaires de la vie privée au renforcement des préjugés sociaux de race, de sexe, de sexualité et d'ethnicité. L'étude du biais algorithmique s'intéresse surtout aux algorithmes qui reflètent une discrimination « systématique et injuste ». Ce biais n'a été pris en compte que récemment dans des cadres juridiques, tels que le règlement général sur la protection des données de l'Union européenne de 2018.

Théorie algorithmique des jeux :

La théorie algorithmique des jeux (AGT) est un domaine à l'intersection de la théorie des jeux et de l'informatique, avec pour objectif la compréhension et la conception d'algorithmes dans des environnements stratégiques.

Gouvernement par algorithme :

Le gouvernement par algorithme est une forme alternative de gouvernement ou d'ordre social, où l'utilisation d'algorithmes informatiques, en particulier d'intelligence artificielle, est appliquée aux réglementations, à l'application de la loi et généralement à tout aspect de la vie quotidienne comme les transports ou l'enregistrement foncier. Le terme «gouvernement par algorithme» est apparu dans la littérature universitaire comme une alternative à «gouvernance algorithmique» en 2013. Un terme connexe, la régulation algorithmique est défini comme l'établissement de la norme, la surveillance et la modification du comportement au moyen d'algorithmes informatiques - l'automatisation du système judiciaire est dans sa portée.

La théorie des graphes:

En mathématiques, la théorie des graphes est l'étude des graphes , qui sont des structures mathématiques utilisées pour modéliser des relations par paires entre des objets. Un graphe dans ce contexte est composé de sommets qui sont reliés par des arêtes . Une distinction est faite entre les graphes non orientés , où les arêtes relient deux sommets symétriquement, et les graphes orientés , où les arêtes relient deux sommets de manière asymétrique. Les graphes sont l'un des principaux objets d'étude en mathématiques discrètes.

Théorie de l'apprentissage algorithmique :

La théorie de l'apprentissage algorithmique est un cadre mathématique pour l'analyse des problèmes et des algorithmes d'apprentissage automatique. Les synonymes incluent la théorie de l'apprentissage formel et l' inférence algorithmique inductive . La théorie de l'apprentissage algorithmique est différente de la théorie de l'apprentissage statistique en ce qu'elle n'utilise pas d'hypothèses et d'analyses statistiques. La théorie de l'apprentissage algorithmique et statistique concerne l'apprentissage automatique et peut donc être considérée comme des branches de la théorie de l'apprentissage informatique.

Inférence algorithmique :

L'inférence algorithmique rassemble de nouveaux développements dans les méthodes d'inférence statistique rendues possibles par les puissants dispositifs informatiques largement disponibles pour tout analyste de données. Les pierres angulaires dans ce domaine sont la théorie de l'apprentissage computationnel, l'informatique granulaire, la bioinformatique et, il y a longtemps, la probabilité structurelle. pour produire des résultats fiables. Cela déplace l'intérêt des mathématiciens de l'étude des lois de distribution vers les propriétés fonctionnelles des statistiques, et l'intérêt des informaticiens des algorithmes de traitement des données vers les informations qu'ils traitent.

Théorie algorithmique de l'information :

La théorie algorithmique de l'information (AIT) est une branche de l'informatique théorique qui s'intéresse à la relation entre le calcul et l'information d'objets générés par calcul, tels que des chaînes ou toute autre structure de données. En d'autres termes, il est montré dans la théorie algorithmique de l'information que l'incompressibilité computationnelle « imite » les relations ou les inégalités trouvées dans la théorie de l'information. Selon Gregory Chaitin, c'est "le résultat de mettre la théorie de l'information de Shannon et la théorie de la calculabilité de Turing dans un shaker et de secouer vigoureusement".

Théorie algorithmique de l'information :

La théorie algorithmique de l'information (AIT) est une branche de l'informatique théorique qui s'intéresse à la relation entre le calcul et l'information d'objets générés par calcul, tels que des chaînes ou toute autre structure de données. En d'autres termes, il est montré dans la théorie algorithmique de l'information que l'incompressibilité computationnelle « imite » les relations ou les inégalités trouvées dans la théorie de l'information. Selon Gregory Chaitin, c'est "le résultat de mettre la théorie de l'information de Shannon et la théorie de la calculabilité de Turing dans un shaker et de secouer vigoureusement".

Problème indécidable :

Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, un problème indécidable est un problème de décision pour lequel il s'avère impossible de construire un algorithme qui conduit toujours à une réponse correcte par oui ou par non. Le problème d'arrêt est un exemple : il peut être prouvé qu'il n'y a pas d'algorithme qui détermine correctement si des programmes arbitraires finissent par s'arrêter lorsqu'ils sont exécutés.

Trading algorithmique :

Le trading algorithmique est une méthode d'exécution d'ordres utilisant des instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente de tirer parti de la vitesse et des ressources de calcul des ordinateurs par rapport aux traders humains. Au XXIe siècle, le trading algorithmique gagne du terrain auprès des traders particuliers et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les commerçants humains puissent réagir. Une étude réalisée en 2019 a montré qu'environ 92% des transactions sur le marché Forex étaient effectuées par des algorithmes de trading plutôt que par des humains.

Journalisme automatisé :

Dans le journalisme automatisé , également appelé journalisme algorithmique ou journalisme robotique , les articles de presse sont générés par des programmes informatiques. Grâce à un logiciel d'intelligence artificielle (IA), les histoires sont produites automatiquement par des ordinateurs plutôt que par des journalistes humains. Ces programmes interprètent, organisent et présentent les données de manière lisible par l'homme. En règle générale, le processus implique un algorithme qui analyse de grandes quantités de données fournies, sélectionne parmi un assortiment de structures d'articles préprogrammées, commande des points clés et insère des détails tels que des noms, des lieux, des montants, des classements, des statistiques et d'autres chiffres. La sortie peut également être personnalisée pour s'adapter à une certaine voix, ton ou style.

ALGOL :

ALGOL est une famille de langages de programmation informatique impératifs initialement développés en 1958. ALGOL a fortement influencé de nombreux autres langages et a été la méthode standard de description d'algorithmes utilisée par l'Association for Computing Machinery (ACM) dans les manuels et les sources académiques pendant plus de trente ans.

Théorie de l'apprentissage algorithmique :

La théorie de l'apprentissage algorithmique est un cadre mathématique pour l'analyse des problèmes et des algorithmes d'apprentissage automatique. Les synonymes incluent la théorie de l'apprentissage formel et l' inférence algorithmique inductive . La théorie de l'apprentissage algorithmique est différente de la théorie de l'apprentissage statistique en ce qu'elle n'utilise pas d'hypothèses et d'analyses statistiques. La théorie de l'apprentissage algorithmique et statistique concerne l'apprentissage automatique et peut donc être considérée comme des branches de la théorie de l'apprentissage informatique.

Ordre juridique algorithmique :

L'ordre juridique algorithmique peut désigner :

  • Gouvernement par algorithme
  • Droit de la technologie du grand livre distribué
Ordre juridique algorithmique :

L'ordre juridique algorithmique peut désigner :

  • Gouvernement par algorithme
  • Droit de la technologie du grand livre distribué
Logique algorithmique :

La logique algorithmique est un calcul de programmes qui permet l'expression des propriétés sémantiques des programmes par des formules logiques appropriées. Il fournit un cadre qui permet de prouver les formules à partir des axiomes des constructions de programme telles que les instructions d'affectation, d'itération et de composition et à partir des axiomes des structures de données en question voir Mirkowska & Salwicki (1987), Banachowski et al. (1977).

Gestion algorithmique :

La gestion algorithmique est un terme utilisé pour décrire certaines pratiques de gestion du travail dans l'économie numérique contemporaine. Dans les usages scientifiques, le terme a été initialement inventé en 2015 par Min Kyung Lee, Daniel Kusbit, Evan Metsky et Laura Dabbish pour décrire le rôle de gestion joué par les algorithmes sur les plateformes Uber et Lyft, mais a depuis été repris par d'autres chercheurs pour décrivent plus généralement les caractéristiques managériales et organisationnelles des économies de plateforme.

Conception du mécanisme algorithmique :

La conception de mécanismes algorithmiques ( AMD ) se situe à l'intersection de la théorie des jeux économiques, de l'optimisation et de l'informatique. Le problème prototype dans la conception de mécanismes est de concevoir un système pour plusieurs participants intéressés, de telle sorte que les actions intéressées des participants à l'équilibre conduisent à de bonnes performances du système. Les objectifs typiques étudiés comprennent la maximisation des revenus et la maximisation du bien-être social. La conception de mécanismes algorithmiques diffère de la conception de mécanismes économiques classiques à plusieurs égards. Il utilise généralement les outils analytiques de l'informatique théorique, tels que l'analyse du pire des cas et les ratios d'approximation, contrairement à la conception de mécanismes classiques en économie qui fait souvent des hypothèses de distribution sur les agents. Il considère également que les contraintes de calcul sont d'une importance centrale : les mécanismes qui ne peuvent pas être efficacement mis en œuvre en temps polynomial ne sont pas considérés comme des solutions viables à un problème de conception de mécanisme. Ceci exclut souvent, par exemple, le mécanisme économique classique, la vente aux enchères de Vickrey-Clarke-Groves.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Composition algorithmique :

La composition algorithmique est la technique consistant à utiliser des algorithmes pour créer de la musique.

Théorie numérique des nombres :

En mathématiques et en informatique, la théorie des nombres computationnelle , également connue sous le nom de théorie algorithmique des nombres , est l'étude des méthodes de calcul pour étudier et résoudre des problèmes en théorie des nombres et en géométrie arithmétique, y compris des algorithmes pour les tests de primalité et la factorisation d'entiers, trouver des solutions aux équations diophantiennes, et des méthodes explicites en géométrie arithmétique. La théorie des nombres computationnelle a des applications en cryptographie, y compris RSA, la cryptographie à courbe elliptique et la cryptographie post-quantique, et est utilisée pour étudier les conjectures et les problèmes ouverts en théorie des nombres, y compris l'hypothèse de Riemann, le bouleau et Swinnerton- Conjecture de Dyer, conjecture ABC, conjecture de modularité, conjecture de Sato-Tate et aspects explicites du programme de Langlands.

Symposium sur la théorie algorithmique des nombres :

Algorithmic Number Theory Symposium (ANTS) est une conférence universitaire biennale, tenue pour la première fois à Cornell en 1994, constituant un forum international pour la présentation de nouvelles recherches en théorie computationnelle des nombres. Ils sont consacrés aux aspects algorithmiques de la théorie des nombres, y compris la théorie des nombres élémentaires, la théorie algébrique des nombres, la théorie analytique des nombres, la géométrie des nombres, la géométrie arithmétique, les corps finis et la cryptographie.

Commerce de paires :

Un trading de paires ou un trading de paires est une stratégie de trading neutre par rapport au marché permettant aux traders de profiter de pratiquement toutes les conditions du marché : tendance haussière, baissière ou mouvement latéral. Cette stratégie est classée comme une stratégie d'arbitrage statistique et de négociation de convergence. Le trading de paires a été lancé par Gerry Bamberger et plus tard dirigé par le groupe quantitatif de Nunzio Tartaglia chez Morgan Stanley dans les années 1980.

Paradigme algorithmique :

Un paradigme algorithmique ou paradigme de conception d'algorithmes est un modèle ou un cadre générique qui sous-tend la conception d'une classe d'algorithmes. Un paradigme algorithmique est une abstraction supérieure à la notion d'algorithme, tout comme un algorithme est une abstraction supérieure à un programme informatique.

Brevet logiciel :

Un brevet logiciel est un brevet sur un logiciel, tel qu'un programme informatique, des bibliothèques, une interface utilisateur ou un algorithme.

Brevet logiciel :

Un brevet logiciel est un brevet sur un logiciel, tel qu'un programme informatique, des bibliothèques, une interface utilisateur ou un algorithme.

Tarification algorithmique :

La tarification algorithmique consiste à fixer automatiquement le prix demandé pour les articles à vendre, afin de maximiser les profits du vendeur.

Probabilité algorithmique :

Dans la théorie algorithmique de l'information, la probabilité algorithmique , également connue sous le nom de probabilité de Solomonoff , est une méthode mathématique permettant d'attribuer une probabilité a priori à une observation donnée. Il a été inventé par Ray Solomonoff dans les années 1960. Il est utilisé dans la théorie de l'inférence inductive et les analyses d'algorithmes. Dans sa théorie générale de l'inférence inductive, Solomonoff utilise le prior obtenu par cette formule, dans la règle de Bayes pour la prédiction.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Débogage algorithmique du programme :

Le débogage algorithmique est une technique de débogage qui compare les résultats des sous-calculs avec ce que le programmeur avait prévu. La technique construit une représentation interne de tous les calculs et sous-calculs effectués pendant l'exécution d'un programme bogué, puis interroge le programmeur sur l'exactitude de ces calculs. En posant des questions au programmeur ou en utilisant une spécification formelle, le système peut identifier précisément où dans un programme se trouve un bogue. Les techniques de débogage peuvent réduire considérablement le temps et les efforts consacrés au débogage.

Radicalisation algorithmique :

L'hypothèse de la radicalisation algorithmique est le concept selon lequel les algorithmes sur les sites de médias sociaux populaires tels que YouTube et Facebook conduisent les utilisateurs vers un contenu de plus en plus extrême au fil du temps, conduisant à leur radicalisation vers des opinions politiques extrémistes.

Radicalisation algorithmique :

L'hypothèse de la radicalisation algorithmique est le concept selon lequel les algorithmes sur les sites de médias sociaux populaires tels que YouTube et Facebook conduisent les utilisateurs vers un contenu de plus en plus extrême au fil du temps, conduisant à leur radicalisation vers des opinions politiques extrémistes.

Séquence algorithmiquement aléatoire :

Intuitivement, une séquence algorithmiquement aléatoire est une séquence de chiffres binaires qui apparaît aléatoire pour tout algorithme exécuté sur une machine de Turing universelle. La notion peut être appliquée de manière analogue aux séquences sur n'importe quel alphabet fini. Les séquences aléatoires sont des objets d'étude clés en théorie algorithmique de l'information.

Réduction (complexité):

Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, une réduction est un algorithme pour transformer un problème en un autre problème. Une réduction suffisamment efficace d'un problème à un autre peut être utilisée pour montrer que le deuxième problème est au moins aussi difficile que le premier.

Régulation algorithmique :

La régulation algorithmique peut désigner :

  • Gouvernement par algorithme, utilisation des algorithmes dans le gouvernement
  • Régulation des algorithmes, règles et lois pour les algorithmes
Squelette algorithmique :

En informatique, les squelettes algorithmiques , ou modèles de parallélisme , sont un modèle de programmation parallèle de haut niveau pour le calcul parallèle et distribué.

Stabilité (théorie de l'apprentissage) :

La stabilité , également connue sous le nom de stabilité algorithmique , est une notion de la théorie de l'apprentissage informatique sur la façon dont un algorithme d'apprentissage automatique est perturbé par de petites modifications de ses entrées. Un algorithme d'apprentissage stable est un algorithme pour lequel la prédiction ne change pas beaucoup lorsque les données d'apprentissage sont légèrement modifiées. Par exemple, considérons un algorithme d'apprentissage automatique qui est en train d'être formé pour reconnaître les lettres manuscrites de l'alphabet, en utilisant 1000 exemples de lettres manuscrites et leurs étiquettes comme ensemble d'apprentissage. Une façon de modifier cet ensemble d'apprentissage consiste à omettre un exemple, de sorte que seuls 999 exemples de lettres manuscrites et leurs étiquettes soient disponibles. Un algorithme d'apprentissage stable produirait un classificateur similaire avec les ensembles d'apprentissage à 1000 éléments et à 999 éléments.

Machine à états algorithmique :

La méthode algorithmic state machine ( ASM ) est une méthode de conception de machines à états finis (FSM) développée à l'origine par Thomas E. Osborne à l'université de Californie à Berkeley (UCB) depuis 1960, introduite et mise en œuvre à Hewlett-Packard en 1968, formalisé et étendu depuis 1967 et écrit par Christopher R. Clare depuis 1970. Il est utilisé pour représenter des schémas de circuits intégrés numériques. Le diagramme ASM est comme un diagramme d'état mais plus structuré et donc plus facile à comprendre. Un graphique ASM est une méthode de description des opérations séquentielles d'un système numérique.

Synthèse de haut niveau :

La synthèse de haut niveau ( HLS ), parfois appelée synthèse C, synthèse au niveau du système électronique (ESL), synthèse algorithmique ou synthèse comportementale , est un processus de conception automatisé qui interprète une description algorithmique d'un comportement souhaité et crée du matériel numérique qui implémente ce comportement.

Collusion tacite :

La collusion tacite est une collusion entre concurrents, qui n'échangent pas explicitement d'informations et ne parviennent pas à un accord sur la coordination des comportements. Il existe deux types de collusion tacite : l'action concertée et le parallélisme conscient . Dans une action concertée également appelée activité concertée , les concurrents échangent des informations sans parvenir à un accord explicite, tandis que le parallélisme conscient n'implique aucune communication. Dans les deux types de collusion tacite, les concurrents acceptent de jouer une certaine stratégie sans le dire explicitement . Elle est également appelée coordination oligopolistique des prix ou parallélisme tacite .

Technique algorithmique :

En mathématiques et en informatique, une technique algorithmique est une approche générale pour la mise en œuvre d'un processus ou d'un calcul.

Technique algorithmique :

En mathématiques et en informatique, une technique algorithmique est une approche générale pour la mise en œuvre d'un processus ou d'un calcul.

Complexité temporelle :

En informatique, la complexité temporelle est la complexité de calcul qui décrit le temps qu'il faut à l'ordinateur pour exécuter un algorithme. La complexité temporelle est communément estimée en comptant le nombre d'opérations élémentaires effectuées par l'algorithme, en supposant que chaque opération élémentaire prend un temps fixe pour s'effectuer. Ainsi, le temps pris et le nombre d'opérations élémentaires effectuées par l'algorithme sont supposés différer d'un facteur au plus constant.

Topologie de calcul :

La topologie algorithmique , ou topologie computationnelle , est un sous-domaine de la topologie avec un chevauchement avec les domaines de l'informatique, en particulier la géométrie computationnelle et la théorie de la complexité computationnelle.

Trading algorithmique :

Le trading algorithmique est une méthode d'exécution d'ordres utilisant des instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente de tirer parti de la vitesse et des ressources de calcul des ordinateurs par rapport aux traders humains. Au XXIe siècle, le trading algorithmique gagne du terrain auprès des traders particuliers et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les commerçants humains puissent réagir. Une étude réalisée en 2019 a montré qu'environ 92% des transactions sur le marché Forex étaient effectuées par des algorithmes de trading plutôt que par des humains.

Trading algorithmique :

Le trading algorithmique est une méthode d'exécution d'ordres utilisant des instructions de trading préprogrammées automatisées tenant compte de variables telles que le temps, le prix et le volume. Ce type de trading tente de tirer parti de la vitesse et des ressources de calcul des ordinateurs par rapport aux traders humains. Au XXIe siècle, le trading algorithmique gagne du terrain auprès des traders particuliers et institutionnels. Il est largement utilisé par les banques d'investissement, les fonds de pension, les fonds communs de placement et les fonds spéculatifs qui peuvent avoir besoin d'étaler l'exécution d'un ordre plus important ou d'effectuer des transactions trop rapidement pour que les commerçants humains puissent réagir. Une étude réalisée en 2019 a montré qu'environ 92% des transactions sur le marché Forex étaient effectuées par des algorithmes de trading plutôt que par des humains.

Transparence algorithmique :

La transparence algorithmique est le principe selon lequel les facteurs qui influencent les décisions prises par les algorithmes doivent être visibles ou transparents pour les personnes qui utilisent, régulent et sont affectées par les systèmes qui utilisent ces algorithmes. Bien que l'expression ait été inventée en 2016 par Nicholas Diakopoulos et Michael Koliska sur le rôle des algorithmes dans la décision du contenu des services de journalisme numérique, le principe sous-jacent remonte aux années 1970 et à l'essor des systèmes automatisés de notation du crédit à la consommation.

Lemme de régularité szemerédi :

Le lemme de régularité de Szemerédi est l'un des outils les plus puissants de la théorie des graphes extrémaux, en particulier dans l'étude des grands graphes denses. Il indique que les sommets de chaque graphe suffisamment grand peuvent être partitionnés en un nombre limité de parties de sorte que les arêtes entre les différentes parties se comportent de manière presque aléatoire.

Lemme de régularité szemerédi :

Le lemme de régularité de Szemerédi est l'un des outils les plus puissants de la théorie des graphes extrémaux, en particulier dans l'étude des grands graphes denses. Il indique que les sommets de chaque graphe suffisamment grand peuvent être partitionnés en un nombre limité de parties de sorte que les arêtes entre les différentes parties se comportent de manière presque aléatoire.

Lemme de régularité szemerédi :

Le lemme de régularité de Szemerédi est l'un des outils les plus puissants de la théorie des graphes extrémaux, en particulier dans l'étude des grands graphes denses. Il indique que les sommets de chaque graphe suffisamment grand peuvent être partitionnés en un nombre limité de parties de sorte que les arêtes entre les différentes parties se comportent de manière presque aléatoire.

Algorithmique :

Algorithmica est une revue scientifique mensuelle à comité de lecture axée sur la recherche et l'application d'algorithmes informatiques. Le journal a été créé en 1986 et est publié par Springer Science+Business Media. Le rédacteur en chef est Ming-Yang Kao. La couverture du sujet comprend le tri, la recherche, les structures de données, la géométrie computationnelle et la programmation linéaire, VLSI, l'informatique distribuée, le traitement parallèle, la conception assistée par ordinateur, la robotique, les graphiques, la conception de bases de données et les outils logiciels.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Art algorithmique :

L'art algorithmique ou l' art algorithmique est un art, principalement un art visuel, dans lequel la conception est générée par un algorithme. Les artistes algorithmiques sont parfois appelés algoristes .

Composition algorithmique :

La composition algorithmique est la technique consistant à utiliser des algorithmes pour créer de la musique.

Problème indécidable :

Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, un problème indécidable est un problème de décision pour lequel il s'avère impossible de construire un algorithme qui conduit toujours à une réponse correcte par oui ou par non. Le problème d'arrêt est un exemple : il peut être prouvé qu'il n'y a pas d'algorithme qui détermine correctement si des programmes arbitraires finissent par s'arrêter lorsqu'ils sont exécutés.

Séquence algorithmiquement aléatoire :

Intuitivement, une séquence algorithmiquement aléatoire est une séquence de chiffres binaires qui apparaît aléatoire pour tout algorithme exécuté sur une machine de Turing universelle. La notion peut être appliquée de manière analogue aux séquences sur n'importe quel alphabet fini. Les séquences aléatoires sont des objets d'étude clés en théorie algorithmique de l'information.

Séquence algorithmiquement aléatoire :

Intuitivement, une séquence algorithmiquement aléatoire est une séquence de chiffres binaires qui apparaît aléatoire pour tout algorithme exécuté sur une machine de Turing universelle. La notion peut être appliquée de manière analogue aux séquences sur n'importe quel alphabet fini. Les séquences aléatoires sont des objets d'étude clés en théorie algorithmique de l'information.

Langage récursif :

En mathématiques, en logique et en informatique, un langage formel est dit récursif s'il s'agit d'un sous-ensemble récursif de l'ensemble de toutes les séquences finies possibles sur l'alphabet du langage. De manière équivalente, un langage formel est récursif s'il existe une machine de Turing totale qui, lorsqu'on lui donne une séquence finie de symboles en entrée, l'accepte s'il appartient au langage et le rejette sinon. Les langages récursifs sont aussi appelés décidables .

Problème indécidable :

Dans la théorie de la calculabilité et la théorie de la complexité computationnelle, un problème indécidable est un problème de décision pour lequel il s'avère impossible de construire un algorithme qui conduit toujours à une réponse correcte par oui ou par non. Le problème d'arrêt est un exemple : il peut être prouvé qu'il n'y a pas d'algorithme qui détermine correctement si des programmes arbitraires finissent par s'arrêter lorsqu'ils sont exécutés.

Algorithmique :

L'algorithmique est l'étude systématique de la conception et de l'analyse d'algorithmes. C'est un domaine fondamental et l'un des plus anciens de l'informatique. Il comprend la conception d'algorithmes, l'art de construire une procédure capable de résoudre efficacement un problème spécifique ou une classe de problèmes, la théorie de la complexité algorithmique, l'étude de l'estimation de la dureté des problèmes en étudiant les propriétés de l'algorithme qui les résout ou l'analyse d'algorithmes. , la science de l'étude des propriétés d'un problème, comme la quantification des ressources en temps et en espace mémoire nécessaires à cet algorithme pour résoudre ce problème.

Algorithmique Inc. :

Algorithmics était une société basée à Toronto, en Ontario, fondée par Ron Dembo qui fournissait des logiciels de gestion des risques aux institutions financières. Fondée en 1989, Algorithmics employait plus de 850 personnes dans 23 bureaux mondiaux et desservait plus de 350 clients, dont 25 des 30 plus grandes banques du monde et plus des deux tiers du CRO Forum des principaux assureurs.

Algorithmique Inc. :

Algorithmics était une société basée à Toronto, en Ontario, fondée par Ron Dembo qui fournissait des logiciels de gestion des risques aux institutions financières. Fondée en 1989, Algorithmics employait plus de 850 personnes dans 23 bureaux mondiaux et desservait plus de 350 clients, dont 25 des 30 plus grandes banques du monde et plus des deux tiers du CRO Forum des principaux assureurs.

Algorithmes de résolution de Sudoku :

Un Sudoku standard contient 81 cellules, dans une grille 9×9, et comporte 9 cases, chaque case étant l'intersection des 3 premières, du milieu ou des 3 dernières lignes et des 3 premières, moyennes ou dernières colonnes. Chaque cellule peut contenir un nombre de un à neuf, et chaque nombre ne peut apparaître qu'une seule fois dans chaque ligne, colonne et case. Un Sudoku commence avec des cellules contenant des nombres ( indices ), et le but est de résoudre les cellules restantes. Les Sudokus appropriés ont une solution. Les joueurs et les enquêteurs utilisent un large éventail d'algorithmes informatiques pour résoudre des Sudokus, étudier leurs propriétés et créer de nouveaux puzzles, y compris des Sudokus avec des symétries intéressantes et d'autres propriétés.

Algorithmes de résolution de Sudoku :

Un Sudoku standard contient 81 cellules, dans une grille 9×9, et comporte 9 cases, chaque case étant l'intersection des 3 premières, du milieu ou des 3 dernières lignes et des 3 premières, moyennes ou dernières colonnes. Chaque cellule peut contenir un nombre de un à neuf, et chaque nombre ne peut apparaître qu'une seule fois dans chaque ligne, colonne et case. Un Sudoku commence avec des cellules contenant des nombres ( indices ), et le but est de résoudre les cellules restantes. Les Sudokus appropriés ont une solution. Les joueurs et les enquêteurs utilisent un large éventail d'algorithmes informatiques pour résoudre des Sudokus, étudier leurs propriétés et créer de nouveaux puzzles, y compris des Sudokus avec des symétries intéressantes et d'autres propriétés.

Algorithme:

En mathématiques et en informatique, un algorithme est une séquence finie d'instructions bien définies et implémentables par ordinateur, généralement pour résoudre une classe de problèmes spécifiques ou pour effectuer un calcul. Les algorithmes sont toujours sans ambiguïté et sont utilisés comme spécifications pour effectuer des calculs, le traitement des données, le raisonnement automatisé et d'autres tâches. En revanche, une heuristique est une technique utilisée dans la résolution de problèmes qui utilise des méthodes pratiques et/ou diverses estimations afin de produire des solutions qui peuvent ne pas être optimales mais qui sont suffisantes compte tenu des circonstances.

Conception assistée par algorithmes (AAD) :

La conception assistée par algorithmes (AAD) est l'utilisation d'éditeurs d'algorithmes spécifiques pour aider à la création, la modification, l'analyse ou l'optimisation d'une conception. Les éditeurs d'algorithmes sont généralement intégrés à des progiciels de modélisation 3D et lisent plusieurs langages de programmation, à la fois scriptés ou visuels. La conception assistée par algorithmes permet aux concepteurs de surmonter les limitations des logiciels de CAO traditionnels et des logiciels d'infographie 3D, atteignant un niveau de complexité qui dépasse la possibilité humaine d'interagir avec des objets numériques. L'acronyme apparaît pour la première fois dans le livre AAD Algorithms-Aided Design, Parametric Strategies using Grasshopper, publié par Arturo Tedeschi en 2014.

Algorithmes (journal) :

Algorithms est une revue scientifique mensuelle de mathématiques en libre accès, évaluée par des pairs, couvrant la conception, l'analyse et les expériences sur les algorithmes. Le journal est publié par MDPI et a été créé en 2008. Le rédacteur en chef fondateur était Kazuo Iwama. De mai 2014 à septembre 2019, le rédacteur en chef était Henning Fernau. Le rédacteur en chef actuel est Frank Werner.

Algorithmes (journal) :

Algorithms est une revue scientifique mensuelle de mathématiques en libre accès, évaluée par des pairs, couvrant la conception, l'analyse et les expériences sur les algorithmes. Le journal est publié par MDPI et a été créé en 2008. Le rédacteur en chef fondateur était Kazuo Iwama. De mai 2014 à septembre 2019, le rédacteur en chef était Henning Fernau. Le rédacteur en chef actuel est Frank Werner.

Algorithmes + Structures de données = Programmes :

Algorithms + Data Structures = Programs est un livre de 1976 écrit par Niklaus Wirth couvrant certains des sujets fondamentaux de la programmation informatique, en particulier le fait que les algorithmes et les structures de données sont intrinsèquement liés. Par exemple, si l'on a une liste triée, on utilisera un algorithme de recherche optimal pour les listes triées.

Catégorie:Scientific & Academic Publishing revues académiques:
Catégorie:Scientific & Academic Publishing revues académiques:
Catégorie:Scientific & Academic Publishing revues académiques:
Machine à états algorithmique :

La méthode algorithmic state machine ( ASM ) est une méthode de conception de machines à états finis (FSM) développée à l'origine par Thomas E. Osborne à l'université de Californie à Berkeley (UCB) depuis 1960, introduite et mise en œuvre à Hewlett-Packard en 1968, formalisé et étendu depuis 1967 et écrit par Christopher R. Clare depuis 1970. Il est utilisé pour représenter des schémas de circuits intégrés numériques. Le diagramme ASM est comme un diagramme d'état mais plus structuré et donc plus facile à comprendre. Un graphique ASM est une méthode de description des opérations séquentielles d'un système numérique.

Algorithmes débloqués :

Algorithms Unlocked est un livre de Thomas H. Cormen sur les principes de base et les applications des algorithmes informatiques. Le livre se compose de dix chapitres et traite des sujets de la recherche, du tri, des algorithmes de base des graphes, du traitement des chaînes, des principes fondamentaux de la cryptographie et de la compression de données, et une introduction à la théorie du calcul.

Algorithmes et combinatoire :

Algorithmes et combinatoires est une série de livres en mathématiques, et en particulier en combinatoire et en conception et analyse d'algorithmes. Il est publié par Springer Science+Business Media et a été fondé en 1987.

Conférences SWAT et WADS :

WADS , le symposium sur les algorithmes et les structures de données , est une conférence universitaire internationale dans le domaine de l'informatique, axée sur les algorithmes et les structures de données. WADS a lieu tous les deux ans, habituellement au Canada et toujours en Amérique du Nord. Il se tient en alternance avec sa conférence sœur, le Scandinavian Symposium and Workshops on Algorithm Theory (SWAT) , qui se tient généralement en Scandinavie et toujours en Europe du Nord. Historiquement, les actes des deux conférences ont été publiés par Springer Verlag dans leur série Lecture Notes in Computer Science. Springer continue de publier les actes du WADS, mais à partir de 2016, les actes du SWAT sont désormais publiés par Dagstuhl via leurs Leibniz International Proceedings in Informatics.

Conférences SWAT et WADS :

WADS , le symposium sur les algorithmes et les structures de données , est une conférence universitaire internationale dans le domaine de l'informatique, axée sur les algorithmes et les structures de données. WADS a lieu tous les deux ans, habituellement au Canada et toujours en Amérique du Nord. Il se tient en alternance avec sa conférence sœur, le Scandinavian Symposium and Workshops on Algorithm Theory (SWAT) , qui se tient généralement en Scandinavie et toujours en Europe du Nord. Historiquement, les actes des deux conférences ont été publiés par Springer Verlag dans leur série Lecture Notes in Computer Science. Springer continue de publier les actes du WADS, mais à partir de 2016, les actes du SWAT sont désormais publiés par Dagstuhl via leurs Leibniz International Proceedings in Informatics.

Algorithmes de récupération et d'isolement exploitant la sémantique :

En informatique, Algorithms for Recovery and Isolation Exploiting Semantics , ou ARIES est un algorithme de récupération conçu pour fonctionner avec une approche de base de données sans force et vol ; il est utilisé par IBM DB2, Microsoft SQL Server et de nombreux autres systèmes de bases de données. IBM Fellow Dr. C. Mohan est le principal inventeur de la famille d'algorithmes ARIES.

Algorithmes de récupération et d'isolement exploitant la sémantique :

En informatique, Algorithms for Recovery and Isolation Exploiting Semantics , ou ARIES est un algorithme de récupération conçu pour fonctionner avec une approche de base de données sans force et vol ; il est utilisé par IBM DB2, Microsoft SQL Server et de nombreux autres systèmes de bases de données. IBM Fellow Dr. C. Mohan est le principal inventeur de la famille d'algorithmes ARIES.

Aide à la vie cardiaque avancée :

La réanimation cardiaque avancée , ou réanimation cardiovasculaire avancée , souvent désignée par son acronyme « ACLS », fait référence à un ensemble d'algorithmes cliniques pour le traitement urgent de l'arrêt cardiaque, de l'accident vasculaire cérébral, de l'infarctus du myocarde et d'autres urgences cardiovasculaires mettant la vie en danger. En dehors de l'Amérique du Nord, Advanced Life Support (ALS) est utilisé.

Planification et ordonnancement automatisés :

La planification et l'ordonnancement automatisés , parfois appelés simplement planification de l'IA , sont une branche de l'intelligence artificielle qui concerne la réalisation de stratégies ou de séquences d'actions, généralement pour l'exécution par des agents intelligents, des robots autonomes et des véhicules sans pilote. Contrairement aux problèmes classiques de contrôle et de classification, les solutions sont complexes et doivent être découvertes et optimisées dans un espace multidimensionnel. La planification est également liée à la théorie de la décision.

Sinus:

En mathématiques, le sinus est une fonction trigonométrique d'un angle. Le sinus d'un angle aigu est défini dans le contexte d'un triangle rectangle : pour l'angle spécifié, c'est le rapport de la longueur du côté opposé à cet angle, à la longueur du côté le plus long du triangle. Pour un angle , la fonction sinus est simplement notée .

Algorithmes de calcul de la variance :

Les algorithmes de calcul de la variance jouent un rôle majeur dans les statistiques computationnelles. Une difficulté clé dans la conception de bons algorithmes pour ce problème est que les formules pour la variance peuvent impliquer des sommes de carrés, ce qui peut conduire à une instabilité numérique ainsi qu'à un débordement arithmétique lorsqu'il s'agit de grandes valeurs.

Inférence causale :

L'inférence causale est le processus de détermination de l'effet indépendant et réel d'un phénomène particulier qui est une composante d'un système plus vaste. le différence principale entre l'inférence causale et l'inférence d'association est que l'inférence causale analyse la réponse d'une variable d'effet lorsqu'une cause de la variable d'effet est modifiée. La science qui explique pourquoi les choses se produisent s'appelle l'étiologie. On dit que l'inférence causale fournit la preuve de la causalité théorisée par le raisonnement causal.

Không có nhận xét nào:

Đăng nhận xét