Nous utilisons des cookies pour améliorer votre expérience. Pour nous conformer à la nouvelle directive sur la vie privée, nous devons demander votre consentement à l’utilisation de ces cookies. En savoir plus.
PROCESSUS DE MARKOV APPLIQUE A LA GESTION DE LA CHAINE LOGISTIQUE - PRODUCTION JUSTE A TEMPS
Univ Europeenne - EAN : 9786139539772
Édition papier
EAN : 9786139539772
Paru le : 1 févr. 2020
39,90 €
37,82 €
Epuisé
Pour connaître votre prix et commander, identifiez-vous
Manquant sans date
Notre engagement qualité
-
Livraison gratuite
en France sans minimum
de commande -
Manquants maintenus
en commande
automatiquement -
Un interlocuteur
unique pour toutes
vos commandes -
Toutes les licences
numériques du marché
au tarif éditeur -
Assistance téléphonique
personalisée sur le
numérique -
Service client
Du Lundi au vendredi
de 9h à 18h
- EAN13 : 9786139539772
- Réf. éditeur : 5957314
- Editeur : Univ Europeenne
- Date Parution : 1 févr. 2020
- Disponibilite : Manque sans date
- Barème de remise : NS
- Nombre de pages : 72
- Poids : 120gr
- Interdit de retour : Retour interdit
- Résumé : À une intuition de haut niveau, un processus de décision de Markov (MDP) est un type de modèle mathématique très utile pour l'apprentissage automatique, l'apprentissage par renforcement pour être spéci que. Le modèle permet aux machines et aux agents de déterminer le comportement idéal dans un environnement spéci que, a n de maximiser la capacité du modèle à atteindre un certain état dans un environnement ou même plusieurs états,selon ce que vous voulez réaliser. Cet objectif est déterminé parce que nous appellerons une politique, qui s'applique aux actions de l'agent en fonction de l'environnement, et MDP cherche à optimiser les mesures prises pour parvenir à une telle solution. Cette optimisation est e ectuée avec un système de rétroaction des récompenses, où di érentes actions sont pondérées en fonction de l'état prédit que ces actions entraîneront.









