[关闭]
@cww97 2017-12-21T16:55:06.000000Z 字数 3220 阅读 1363

黑白棋论文笔记

机器学习


1.引言

状态下,采取最佳行动:

: Action

执行行动达到的状态

:对状态的评估

主要有两种方法:

  1. 搜索,搜索终止状态调用评估函数
  2. 机器学习方法学习一个较好的评估函数

所以问题的重点就是这个评估函数

2. 博弈树搜索

极小极大搜索(MinMaxSearch)

2.1 评估函数

image.png-10.8kB

Value:

其中:

为w处的权值,经验数据???经验数据???

Mobility() 己方行动力大小:定义为可以着子的位置总数

2.2 极大极小搜索

考虑两个人下棋

角度来看,每一步总是使自己获得最大收益,我们称之为过程

角度来看,每一步要使得自己获得最大收益也就是使获得最小收益,我们称之为过程

在不考虑一方停止的情况下,下棋就是相互交替的过程

假设搜索的,那么显然会选择令自己收益最大的状态, 则最大收益为, 简称:贪心

假设搜索的, 那么在做出一个move之后,显然会选择令收益最小的状态, 那么先生的最大收益就是,

image.png-32.2kB

以此类推,越深,选择会越来越明智.

MinMax dfs

Input: 棋盘, 搜索深度
Output: 最佳动作

  1. best_val = -INF;
  2. foreach move do
  3. MakeMove(board, move, my_color); //自己做该move
  4. val = Min(board, depth - 1); //对方找一个Min
  5. UnMakeMove(board, move, my_color);
  6. if val > best_val: // 我们需要最大化这个Min
  7. best_val = val;
  8. best_move = move;
  9. return best_move

Min

Input: 棋盘, 搜索深度
Output: 子节点最小值

  1. ans = INF
  2. if (depth < 0) return Value(board); // Value为估价函数
  3. if (!CanMove(board, opp_color)):
  4. if (!CanMove(board, my_color)):
  5. return Value(board); // Game Over
  6. return Max(board, depth); // 白棋停一回合,黑棋走
  7. // 白子可以move
  8. foreach move do:
  9. MakeMove(board, move, opp_color); // 白棋做一个move
  10. val = Max(board, depth - 1); // 黑棋找一个Max
  11. UnMakeMove(board, move, opp_color);
  12. ans = min(ans, val); // 白棋需要最小化这个最大值 from Black
  13. return ans;

Max

Input: 棋盘, 搜索深度
Output: 子节点最大值

  1. ans = -INF
  2. if (depth < 0) return Value(board); // Value为估价函数
  3. if (!CanMove(board, opp_color)):
  4. if (!CanMove(board, my_color)):
  5. return Value(board); // Game Over
  6. return Min(board, depth); //黑棋停一回合,白棋走
  7. // 黑子可以move
  8. foreach move do:
  9. MakeMove(board, move, opp_color); // 黑棋做一个move
  10. val = Min(board, depth - 1); // 白棋找一个Min
  11. UnMakeMove(board, move, opp_color);
  12. ans = max(ans, val); // 白棋需要最小化这个最大值 from Black
  13. return ans;

这个搜算算法逻辑很简单易懂,不过,为了编写代码的方便Min和Max的过程可以合并

如下NegaMax

Input:棋盘 board, 移动的一方color,搜索深度depth
Output:子节点的最大值

  1. ans = -INF
  2. sign[my_color] = 1;
  3. sign[opp_color] = -1;
  4. if (depth <= 0) return sign[color] * Value(board);
  5. if (!canMove(board, color)):
  6. if (!canMove(board, color^1)):
  7. return sign[color] * Value(board);
  8. return - NegaMax(board, color^1, depth);
  9. foreach move do:
  10. MakeMove(board, move, color);
  11. val = -NegaMax(board, color^1, depth-1);
  12. UnMakeMove(board, move, color);
  13. ans = max(ans, val);
  14. return ans;

Alpha-Beta 搜索

先看个栗子🌰

image.png-31.4kB

AMax节点,取BCD的最大值,dfs(A),我们首先会调用Min(B), 得到B的值为6,随后Min(C),在这过程中我们先Max(E) = 4, 到现在我们可以发现:因为CMin节点,所以,M(C) <= 4, 而因为AMax节点,搜索过B之后我们得到的结论是Max(A) >= 6, 至此,我们得到结论:C是个没有用的节点,那么对FG的搜索也是没有必要的,下一步可以直接搜索D节点...

剪枝,剪枝,剪枝!!!

为了利用这个性质,我们决定引入两个值:, 分别表示节点估值的下界和上界,

AlphaBeta搜索

Input: 棋盘 board, alpha , beta (为方便代码中用a和b表示),移动的一方 color,搜索深度depth
Output: 子节点最大值

  1. ans = -INF;
  2. sign[my_color] = 1;
  3. sign[opp_color] = -1;
  4. if (depth <= 0) return sign[color] * Value(board);
  5. if (!canMove(board, color)):
  6. if (!canMove(board, color^1)):
  7. return sign[color] * Value(board);
  8. return - AlphaBeta(board, -b, -a, color^1, depth);
  9. foreach move do:
  10. MakeMove(board, move, color);
  11. val = -AlphaBeta(board, -b, -a, -1, color^1);
  12. UnmakeMove(board, move, color);
  13. if (val > a && val >= b) return val;
  14. a = max(a, val);
  15. return ans;

加入一些其他的优化姿势

AlphaBeta搜索的节点大致可以分为三类(以Max),过程为例:

  1. ,直接return
  2. 剪枝,更新的值
  3. ,没有剪枝,继续搜索

我们可以估算价值然后进行排序来改变搜索顺序,使得剪枝的节点尽量多

and,一个棋盘状态可以在双方不同的走法中走到,但是这个实际上只需要搜索一次,我们可以记录他的值,下一次访问到的时候直接return,其实是一个记忆化的过程

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注