## 論文概要 単眼Depth推定SoTAをAttentionを使い倒すことで達成。提案するSkip Attention Moduleは通常の畳み込みベースのスキップ接続とは異なり長距離依存性を持つデコーダ特徴を融合することができ、より正確な深度ラベルを導出可能。  https://arxiv.org/abs/2210.09071v1 ## Code https://github.com/ashutosh1807/pixelformer