找出一些点,可以把其余的点包进去。
硬 train 一发。直接输入所有的坐标,输出边界坐标。
像 👉 这样
根本不 work。因为输出的数量固定,如果 train 的时候是 1-50,test 的时候是 1-100,decoder 不会输出大于 50 的数。
怎么办?
根据 attention weight 去取 output。
这个效果还不错。
Summarization
Translation & Chat-bot
总来的来说,用到直接替换的应用可以用 pointer network。
因为普通的 seq2seq 的模型,输出的是之前 train 出来限定的,所以用这种 pointer network,就可以直接复用输入的词。