Неопределенность результата действия в парадигме Reinforcement Learning
Крылов Андрей Константинович Интегрированные модели и мягкие вычисления в искусственном интеллекте.
ТИП ПУБЛИКАЦИИстатья в сборнике трудов конференции
ГОД2005
ЯЗЫКRU
ЦИТИРОВАНИЙ4
АННОТАЦИЯ
Рассматривается содержание понятия «результат» (действия) в парадигме Reinforcement Learning, его экспериментальные оценки и возможность сопоставления с понятием «результат» в системной парадигме. Показана неоднозначность и нечеткость результатов действий в тестовой задаче, с которой модель, работающая в данной парадигме, тем не менее, успешно справляется. Рассмотрена значимость и возможность бинарной дефаззификации успешности действий по принципу «достижения» - «не достижения» цели. Для выяснения роли прогнозирования результата действия, выдвинута гипотеза о необходимости усложнения тестовой задачи и приближения ее к реальным биологическим задачам, всегда требующим прогнозирования результатов действий.
ЦИТАТА
Крылов, А.К. Неопределенность результата действия в парадигме Reinforcement Learning / А.К. Крылов. В сборнике: Интегрированные модели и мягкие вычисления в искусственном интеллекте. – 2005. – С. 238-243
Выдвинуты критерии к минимально сложной тестовой поведенческой задаче. На их основе обоснована задача фуражирования. Проведен анализ этой задачи с точки зрения модели мобильного робота, погруженного ...
Тестовая поведенческая задача фуражирования описана с точки зрения самого агента в соответствии с методологией Reinforcement Learning. Показано, что фактическая задача варьирует в зависимости от морфо...
Используемые в нейроинформатике представления о работе мозга основаны на рефлекторной теории, что позволяет ей успешно справляться с математическими и физическими задачами. В работе проведен анализ пр...