Markov Decision Process

آخرین به‌روزرسانی:
|
  • شکل جمع:

    markov decision processes
ذخیره در لغات برگزیده

توضیحات

مخفف این لغت MDP است.

معنی و نمونه‌جمله‌ها

noun countable
ریاضی کامپیوتر هوش مصنوعی فرایند تصمیم‌گیری مارکوف (مدلی ریاضی برای تصمیم‌گیری در محیط‌های تصادفی که بر اساس حالت‌ها، اقدامات، پاداش‌ها و احتمالات انتقال تعریف می‌شود) link-banner

لیست کامل لغات دسته‌بندی شده‌ی کامپیوتر

مشاهده

تبلیغات (تبلیغات را حذف کنید)

جای تبلیغ شما در فست دیکشنری
- A Markov Decision Process allows for the evaluation of the long-term benefits of different strategies.
- فرایند تصمیم‌گیری مارکوف امکان ارزیابی مزایای بلندمدت استراتژی‌های مختلف را فراهم می‌کند.
- Markov Decision Processes can be used to model the behavior of agents in uncertain environments.
- فرایندهای تصمیم‌گیری مارکوف می‌توانند برای مدل‌سازی رفتار عوامل در محیط‌های نامشخص استفاده شوند.
پیشنهاد بهبود معانی

مترادف و متضاد Markov Decision Process

  1. noun a mathematical model used for decision-making in situations where outcomes are partly random and partly under the control of the decision maker
    Synonyms:
    MDP

ارجاع به لغت Markov Decision Process

از آن‌جا که فست‌دیکشنری به عنوان مرجعی معتبر توسط دانشگاه‌ها و دانشجویان استفاده می‌شود، برای رفرنس به این صفحه می‌توانید از روش‌های ارجاع زیر استفاده کنید.

شیوه‌ی رفرنس‌دهی:

کپی

معنی لغت «Markov Decision Process» در فست‌دیکشنری. مشاهده در تاریخ ۲۰ فروردین ۱۴۰۴، از https://fastdic.com/word/markov-decision-process

لغات نزدیک Markov Decision Process

پیشنهاد بهبود معانی