Posted 2024-09-27Updated 2024-12-21Reviewa minute read (About 153 words)Attention Is All You Need概要Transformer是一种基于注意力机制,完全不需要递归或卷积网络的序列预测模型,且更易于训练 背景介绍了Gated-RNN/LSTM的基本逻辑[[Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling]],指出:这种固有的顺序性质阻碍了训练示例中的并行化,这在较长的序列长度上变得至关重要,因为内存限制限制了示例之间的批处理,虽然后续有相关工作优化了一些性能,但是基本的限制并没有解除。
2024-12-17Dynamic Open-Vocabulary 3D Scene Graphs for Long-term Language-Guided Mobile ManipulationReview