最近使用XGBoost做一个二分类的任务。记录XGBoost的主要参数和调参过程。
Transformer
《Attention is all you need》是Google Brain在2017年发表在NIPS的一篇文章。虽然在这篇文章之前,也在用Attention,但在这篇文章中,正式提出了Attention的概念,从此Attention在各个领域得到了广泛的应用。
《Attention is all you need》是Google Brain在2017年发表在NIPS的一篇文章。虽然在这篇文章之前,也在用Attention,但在这篇文章中,正式提出了Attention的概念,从此Attention在各个领域得到了广泛的应用。