Discussion:Propriété de Markov

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Sans titre[modifier le code]

Considère-t-on un processus à temps discret dans lequel on peut définir des probabilités d'apparition à l'instant sous une forme analogue à ou un processus à temps continu dans lequel la probabilité d'apparition d'une valeur à un instant donné est généralement nulle, la densité de probabilité étant définie par  ? Jct (d) 4 juillet 2008 à 11:03 (CEST)[répondre]

La définition donnée dans l'article ne fonctionne que pour un processus à espace d'états discret, que le temps soit discret ou continu. Dans le cas d'un processus à espace d'états « continu » (ou plus généralement dont la tribu n'est pas atomique), il vaut mieux exprimer la propriété markovienne sous la forme suivante :
avec la condition supplémentaire d'indépendance temporelle éventuelle. Ambigraphe, le 4 juillet 2008 à 13:32 (CEST)[répondre]
OK. J'ai perdu une belle occasion de me taire. Commettant peut-être encore une erreur, je vois mal ce que cet article apporte de plus que Chaîne de Markov. Mon idée (à mettre en œuvre après avoir réfléchi à ce que je raconte !) serait de relier cet article à la notion d'équation de Fokker-Planck, donc en termes de processus continus à temps continu. Jct (d) 4 juillet 2008 à 15:19 (CEST)[répondre]
PS. Je viens d'augmenter notablement l'article précité sans être vraiment un spécialiste. Toute amélioration est bienvenue. Jct (d) 4 juillet 2008 à 15:23 (CEST)[répondre]
Potentiellement oui, chaine de Markov ou propriété de Markov, je ne vois pas la différence. Mais il me semble envisageable de réserver l'expression de chaine pour les processus à temps discret, avec les représentations matricielles. C'est le vocable le plus connu et les processus élémentaires seront les bienvenus là-bas. On peut alors développer le présent article pour les processus à temps continu, avec renvois appropriés entre les deux articles. Ambigraphe, le 4 juillet 2008 à 18:24 (CEST)[répondre]
P.S. : la formulation était sans doute volontairement exagérée, mais une question intelligente (comme dans le cas présent) n'est jamais, de mon point de vue, une « belle occasion de [se] taire. » Ambigraphe, le 4 juillet 2008 à 18:24 (CEST)[répondre]

Cas discret[modifier le code]

Il y a beaucoup de choses élémentaires à dire sur la propriété de Markov (déjà la propriété faible, mais aussi la propriété forte, importante pour de nombreuses applications) dans le cas des chaînes de Markov. Du coup la notion de temps d'arrêt devient nécessaire. Les choses sont très analogues dans le cas continu, mais plus compliquées. Je pense développer le cas discret à fond, car plus simple, mais aidant à comprendre le cas continu, et j'espère trouver un relais pour le cas continu, qui me plait moins. Cela peut faire une page substantielle rien qu'avec le menu ci-dessus, mais du coup cela mérite d'être séparé de la page Processus de Markov : par ailleurs un développement substantiel à propos de la propriété de Markov dans la page Chaîne de Markov rendrait cette dernière page trop lourde. La classification des processus de Markov suivant la nature du temps et de l'espace se trouvait ici, ce qui m'a semblé bizarre, donc je l'ai déplacée vers Processus de Markov. --Chassaing 11 janvier 2009 à 10:50 (CET)