فقط تا پایان اردیبهشت فرصت دارید با قیمت ۱۴۰۳ اشتراک‌های فست‌دیکشنری را تهیه کنید.
آخرین به‌روزرسانی:

Markov Decision Process

شکل جمع:

markov decision processes

توضیحات:

مخفف این لغت MDP است.

معنی و نمونه‌جمله‌ها

noun countable

ریاضی کامپیوتر هوش مصنوعی فرایند تصمیم‌گیری مارکوف (مدلی ریاضی برای تصمیم‌گیری در محیط‌های تصادفی که بر اساس حالت‌ها، اقدامات، پاداش‌ها و احتمالات انتقال تعریف می‌شود)

link-banner

لیست کامل لغات دسته‌بندی شده‌ی کامپیوتر

مشاهده

تبلیغات (تبلیغات را حذف کنید)

نرم افزار اندروید فست دیکشنری

A Markov Decision Process allows for the evaluation of the long-term benefits of different strategies.

فرایند تصمیم‌گیری مارکوف امکان ارزیابی مزایای بلندمدت استراتژی‌های مختلف را فراهم می‌کند.

Markov Decision Processes can be used to model the behavior of agents in uncertain environments.

فرایندهای تصمیم‌گیری مارکوف می‌توانند برای مدل‌سازی رفتار عوامل در محیط‌های نامشخص استفاده شوند.

پیشنهاد بهبود معانی

مترادف و متضاد Markov Decision Process

  1. noun a mathematical model used for decision-making in situations where outcomes are partly random and partly under the control of the decision maker
    Synonyms:
    MDP

ارجاع به لغت Markov Decision Process

از آن‌جا که فست‌دیکشنری به عنوان مرجعی معتبر توسط دانشگاه‌ها و دانشجویان استفاده می‌شود، برای رفرنس به این صفحه می‌توانید از روش‌های ارجاع زیر استفاده کنید.

شیوه‌ی رفرنس‌دهی:

کپی

معنی لغت «Markov Decision Process» در فست‌دیکشنری. مشاهده در تاریخ ۲۰ اردیبهشت ۱۴۰۴، از https://fastdic.com/word/markov-decision-process

لغات نزدیک Markov Decision Process

پیشنهاد بهبود معانی