Thanks to visit codestin.com
Credit goes to github.com

Skip to content

Attention Attention Everywhere: Monocular Depth Prediction with Skip Attention #524

@tkuri

Description

@tkuri

論文概要

単眼Depth推定SoTAをAttentionを使い倒すことで達成。提案するSkip Attention Moduleは通常の畳み込みベースのスキップ接続とは異なり長距離依存性を持つデコーダ特徴を融合することができ、より正確な深度ラベルを導出可能。

bib_20221019 00
https://arxiv.org/abs/2210.09071v1

Code

https://github.com/ashutosh1807/pixelformer

Metadata

Metadata

Assignees

No one assigned

    Labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions