Dans [52], E. Altman a présenté une approche unifiée pour l'étude des processus de décision Markoviens sous contraintes, à espace d'état dénombrable et avec des coûts non bornés. On considère un seul contrôleur ayant plusieurs objectifs ; son but est de concevoir une politique qui minimise un objectif sous des contraintes d'inégalité sur les autres. Les objectifs sont le coût moyen, ainsi que le coût total (dont le coût actualisé est un cas particulier) [10]. Deux cas sont étudiés: le cas où les coûts sont bornés inférieurement, et le cas contractif. Les ensembles de mesures d'occupation atteignables sont caractérisés, ainsi que l'ensemble des mesures de performances atteignables. Cela permet de réduire le problème original de contrôle dynamique à une programmation linéaire infinie. Une méthode de Lagrangien, est développée dans [7] pour le cas fini et dans [52] pour le cas infini. Elle permet d'obtenir des résultats sur le comportement asymptotique du problème de contrôle: la convergence des valeurs et des politiques quand l'horizon converge vers l'infini, ou quand le facteur d'actualisation converge vrs 1. Finalement, plusieurs algorithmes de troncation de l'espace d'état sont proposés, permettant l'approximation des solutions du problème de contrôle à l'aide d'une programmation linéaire finie.