Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Programmation concurrente

Un article de Wikipédia, l'encyclopédie libre.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Certaines informations figurant dans cet article ou cette section devraient être mieux reliées aux sources mentionnées dans les sections « Bibliographie », « Sources » ou « Liens externes »().

Laprogrammation concurrente est unparadigme de programmation tenant compte, dans un programme, de l'existence de plusieurs piles sémantiques qui peuvent être appeléesthreads,processus outâches. Elles sont matérialisées en machine par unepile d'exécution et un ensemble de données privées.

La concurrence est indispensable lorsque l'on souhaite écrire des programmes interagissant avec le monde réel (qui est concurrent) ou tirant parti de multiples unités centrales (couplées, comme dans un système multiprocesseurs, ou distribuées, éventuellement en grille ou en grappe).

Classification

[modifier |modifier le code]

On distingue trois types de concurrence :

  • disjointe : les entités concurrentes ne communiquent pas et n'interagissent pas entre elles ;
  • compétitive : un ensemble d'entités concurrentes en compétition pour l'accès à certaines ressources partagées (par exemple le temps CPU, un port d'entrées/sorties, une zone mémoire) ;
  • coopérative : un ensemble d'entités concurrentes qui coopèrent pour atteindre un objectif commun. Des échanges ont lieu entre les processus. La coopération est un élément primordial de la programmation concurrente.

La programmation concurrente est plus complexe que laprogrammation impérative,fonctionnelle ou encoredéclarative. En fait, à chacun de ces modèles de programmation, on peut associer une version concurrente, par extension de la sémantique du langage de programmation associé. Par exemple,Prolog a été étendu en Concurrent Prolog,Haskell avec Concurrent Haskell,Java etAda sont des langages à objets avec des primitives pour la concurrence, etc.

Les techniques spécifiques pour le traitement de la concurrence peuvent être classées en allant de la moins expressive (mais la plus facile à utiliser) à la plus expressive (et la plus complexe). On peut utiliser les niveaux suivants :

  1. Concurrence déclarative (langage fonctionnel étendu avec des threads) ;
  2. Concurrence en programmation logique ;
  3. Concurrence déclarative avec des ports et envoi de messages ;
  4. Concurrence impérative avec ports et envoi de messages ;
  5. Concurrence impérative avec mémoire partagée.

Problèmes

[modifier |modifier le code]

Le phénomène central introduit par la concurrence est le suivant : dans un programme non concurrent, ou séquentiel, l'ordre d'exécution des instructions élémentaires du programme est unordre total qui reste le même d'une exécution à l'autre pour les mêmes paramètres en entrée. Dans un programme concurrent, l'exécution forme un ordre partiel. Comme la politique d'ordonnancement est généralement inconnue (elle est déterminée par lenoyau dusystème d'exploitation par exemple) ou incontrôlée, on parle de l'indéterminisme de l'ordre d'exécution.

Les problèmes induits par la concurrence se manifestent dans les cas de la concurrence compétitive et coopérative. À cause de l'indéterminisme de l'exécution, l'accès à des données partagées par les entités concurrentes peut conduire à des incohérences au niveau des relations liant ces données. Pour cela, on a historiquement utilisé différentes primitives de synchronisation comme lesmutex, lesmoniteurs ou encore lessémaphores. Ces différentes primitives sont toutes une forme plus ou moins évoluée de verrouillage qui sert à mettre en place la synchronisation des entités concurrentes (sur une ressource ou plus généralement une section critique). Mais leur utilisation ne s'effectue pas sans difficultés, on distingue notamment deux problèmes majeurs :

  • interblocages (oudeadlocks) entre entités concurrentes (processus outhreads) qui attendent, par exemple, que l'autre relâche un verrou acquis pour pouvoir progresser ;
  • famines (oustarvations) d'une entité (processus outhread) essayant d'acquérir une ressource, mais jamais ordonnancé au moment où elle est disponible.

Des abstractions de plus haut niveau ont été développées afin de disposer de l'expressivité de la concurrence sans les inconvénients associés à l'usage des primitives de synchronisation de bas niveau.

Solutions

[modifier |modifier le code]

Pour chaque type de programmation concurrente, on dispose d'abstractions de haut niveau facilitant l'écriture de programmes concurrents.

Dans le cas de processus en compétition pour des ressources partagées, la notion detransaction a été développée dès les années 1970. Les systèmes transactionnels, utilisés principalement pour desbases de données partagées, s'appuient sur la théorie de la sérialisabilité pour garantir un accès concurrent à des ressources partagées (concurrence de type 4 et 5). Lamémoire transactionnelle logicielle (STM) est une tentative pour appliquer ce modèle des transactions d'une façon plus générale à toute opération sur la mémoire, elle présente plusieurs avantages sur l'approche classique par verrous et connaît depuis peu un grand regain d'intérêt.

Dans le cas de processus en coopération en vue d'un but commun, au moins deux techniques ont fait leurs preuves : la communication inter-processus utilisant exclusivement l'envoi de messages, et la synchronisationdataflow, c’est-à-dire l'ordonnancement dynamique desthreads en fonction de la disponibilité des données (au moyen de variables spéciales de typefuture ouvariable logique). Les langages de programmationErlang ouOz permettent d'écrire des applications concurrentes et distribuées, avec un soin particulier apporté aux questions degestion d'exception. Erlang et Oz exploitent le principe de l'envoi de messages, et Oz offre de plus la synchronisationdataflow.

Voir aussi

[modifier |modifier le code]

Articles connexes

[modifier |modifier le code]
  • Calcul distribué : la concurrence est souvent liée à ladistribution. Un programme dont l'exécution est distribuée sur plusieurs hôtes est intrinsèquement concurrent. Pourtant, ce n'est pas toujours le cas ; l'utilisation de protocoles de communication entre parties distribuées d'un programme, comme lesRPC (appels de procédure à distance) ouRMI (invocation de méthode à distance), peut rendre non-concurrent un programme distribué.
  • Calcul parallèle
  • Therac-25, un cas concret d'accidents liés à une mauvaise mise en œuvre
  • distcc, distribution des tâches de compilation
  • langagePortal
  • langageOccam
  • langageAda 95
  • langageRust, conçu pour être « un langage sécurisé, concurrent, pratique »
  • programmationLabVIEW

Liens externes

[modifier |modifier le code]

  • Ressource relative à la rechercheVoir et modifier les données sur Wikidata :
  • Notice dans un dictionnaire ou une encyclopédie généralisteVoir et modifier les données sur Wikidata :
v ·m
Principes de base
Patrons de conception
Problèmes classiques
v ·m
Impérative
Structurée
Déclarative
Métaprogrammation
Autres
Comparaison des langages de programmation multi-paradigmes
v ·m
Domaines de l'informatique
Remarque : cette liste s'inspire dusystème de classification informatique de l'ACM édité en2012
Matériel
Appareil et organisation
d'unsystème
Réseau
Organisation dulogiciel
Théorie etoutil (en)
de programmation
Développement de logiciel
Théorie du calcul (en)
Algorithmique
Mathématiques
de l'informatique
Système d'information
Sécurité
Interactions humain-machine
Concurrence (en)
Intelligence artificielle
Apprentissage automatique
Infographie
Audio informatique
Informatique appliquée
v ·m
Codage
Modèles de calcul
Algorithmique
Syntaxe
Sémantique
Logique mathématique
Mathématiques discrètes
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Programmation_concurrente&oldid=219035678 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2025 Movatter.jp