iwiwi 備忘録

学んだことを殴り書きます。自分向けのメモです。

2023-03-31から1日間の記事一覧

Self-attention Does Not Need O(n2) Memory

LLM

arxiv.org xformers.ops.memory_efficient_attentionはこれを実装してると引用してる。 K*Q全部一旦計算する必要なくてある場所のattention計算するためにはその行列のその行だけでいいから各場所について1つずつ計算すれば必要メモリはO(n)って話。 √nって…